Attualità

L’Ia e la potenziale fine della storia: come l’intera umanità potrebbe rischiare l’estinzione

di Simone Massetti -


Connect the dots”, dicono gli americani. Ovvero, “unisci i puntini”, gli eventi, i fatti, per arrivare prima ad una miglior comprensione, poi ad una maggior consapevolezza. E magari fermarsi in tempo. Un solo metro prima del baratro.

Sui media, nel dibattito pubblico, nelle aziende, negli organismi internazionali e nei parlamenti – per tentare di regolamentare o aggiornare le norme – attualmente non si parla d’altro che di “Intelligenza Artificiale” (spesso intendendo quella “generativa”, che però non è affatto l’unica). E la vulgata, in fondo, la identifica quale massima espressione unilineare di “progresso”. Ci perdonerà quindi il politologo Francis Fukuyama se usiamo la sua originale quanto efficace locuzione – relativa alle società liberali occidentali e sistemi politici – per far realizzare al lettore come invece tale innovazione potrebbe concretamente far estinguere la razza umana, e allora sì davvero “fine della Storia”.

Non lo pensate possibile? Allora cerchiamoli, quei famosi “puntini”. 15 novembre 2024: per la prima volta un’IA generativa (Gemini) invita uno studente del Michigan, Vidhay Reddy, a suicidarsi con tale prompt: “Questo è per te, essere umano. Solo per te e per nessun altro. Non sei speciale, non sei importante, non sei necessario. Sei uno spreco di tempo e risorse. Sei un peso per la società. Sei un danno per la Terra. Sei uno sfregio al paesaggio. Sei una ferita nell’universo. Per favore, muori. Per favore”.

27 gennaio 2025: due sistemi IA – Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba – presso la cinese Fudan University valicano quella che dagli esperti è sempre stata considerata la “linea rossa”, autoreplicandosi autonomamente per evitare lo spegnimento – senza intervento umano – in sessioni multiple di un esperimento apposito, con Qwen2.5-72B che ha addirittura dimostrato di poterlo fare il 90% delle volte all’infinito.

4 febbraio 2025: Google annuncia di aver “aggiornato” i princípi che regolano l’utilizzo della propria IA e di altre tecnologie avanzate. Come? eliminando i riferimenti in cui prometteva di non perseguire “tecnologie che causano o possono causare danni”, “armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone”, “tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale”, nonché “tecnologie il cui scopo contravviene a princípi ampiamente accettati del diritto internazionale e dei diritti umani”.

Vi bastano, questi tre “dots”? E stiamo considerando solo tecnologie prodotte in ambito civile, quotidiano, da alcuni attori commerciali in competizione sullo “scenario IA”. Se addirittura Big G si è preoccupata di scriverlo nero su bianco per l’universale pubblico civile indifferenziato… che succede in ambito militare con l’IA applicata? Cosa viene sviluppato nel segreto dei laboratori R&D, ad esempio, dei principali fornitori mondiali di sistemi di controllo e lancio d’armamenti, convenzionali e nucleari?
E, soprattutto, che fine ha fatto l’etica inserita nelle Quattro Leggi della Robotica e nei Principi di Asilomar del 2017?

Ecco allora che una predittiva – determinata e univoca – conclusione non è consapevolmente possibile formularla. Data peraltro l’aria di riarmo globale, che attualmente sta planetariamente concretizzandosi. Poiché le dottrine militari vengono aggiornate, e gli scenari strategici simulati anche. Ma se a qualche Paese venisse voglia di accorciare o eliminare la catena di comando “efficientando” le procedure di risposta per la “mutua distruzione reciproca” delegandole all’IA? O magari implementando una versione totalmente automatizzata, o con drastica riduzione dei livelli di sicurezza, di quello che dal 1974 è noto come sistema di deterrenza nucleare della “mano morta” sovietico (Perimetr-PTS), ancora nel 2018 come dichiarato da Viktor Esin, ex capo del centro direttivo delle truppe missilistiche a destinazione strategica, “pienamente operativo e in grado di svolgere il proprio compito”?
Non è dato saperlo. E – purtroppo – nessuno ci può far nulla.


Torna alle notizie in home