Attualità

L’appello di Musk: “L’intelligenza artificiale è un pericolo per tutti”

di Martina Melli -


L’intelligenza artificiale fa paura. Sia a noi mortali che a chi l’ha creata. Di primo impatto, sembrerebbe questo il significato della lettera aperta firmata dai grandi del tech, da Elon Musk al co-fondatore di Apple – Steve Wozniak – ai ricercatori di Deep Mind e a tanti altri esperti del settore. La lettera è stata pubblicata sul Future of Life Institute, un’associazione di volontariato finanziata dalla Musk Foundation, che ha lo scopo di monitorare i potenziali rischi catastrofici ed esistenziali dello sviluppo delle nuove tecnologie, in particolare, delle intelligenze artificiali.
Il polverone si è alzato dopo che Chat-GPT, un chatbot basato su testo sviluppato da OpenAi in grado di redigere prosa, poesia e persino codice informatico a comando, ha attirato l’attenzione mondiale.
La lettera, mettendo in guardia sulle possibili derive dell’Ai, chiede apertamente di sospendere, per almeno 6 mesi, il perfezionamento di tutte le innovazioni di GPT-4 (il più avanzato sistema di OpenAi).
Il documento sostiene ci sia la necessità di aspettare a creare altri sistemi Ai, “fino a quando i protocolli di sicurezza condivisi per tali progetti non saranno sviluppati, implementati e verificati da esperti indipendenti”. Una pausa, insomma, per rendere i sistemi di Ai più avanzati “sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali”.
“Dobbiamo rischiare di perdere il controllo della nostra civiltà?” si domanda la moratoria.
A questi interrogativi, fino a oggi considerati fantascientifici, gli esperti hanno dato una risposta ben chiara: “Queste decisioni non devono competere ai leader tecnologici”. Serve un coinvolgimento politico e un dibattito etico di fondo, sullo sviluppo e sul futuro dell’umanità. “I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati delle Ai, che sono rigorosamente controllati e supervisionati da esperti esterni indipendenti”.
Lo stesso Sam Altman, fondatore di OpenAi (la startup creatrice di ChatGPT), poco tempo fa ha ammesso come questa nuova tecnologia potrebbe mettere in pericolo la stessa esistenza dell’essere umano, resa obsoleta (o peggio) da macchine dotate di coscienza. Altman, dunque, è uno dei teorici del cosiddetto “scenario Terminator” secondo cui, come dice Musk, sviluppare le “Agi” (Intelligenze artificiali generiche) equivale a “evocare il demonio”. “Stiamo diventando sempre più cauti nella creazione e diffusione di questi modelli” ha dichiarato Altman, e ha aggiunto: “Le nostre decisioni richiederanno molta più cautela di quella che la società solitamente applica alle nuove tecnologie”.
In una recente intervista televisiva rilasciata alla Abc, Altman si è mostrato particolarmente lucido, affrontando alcuni pericoli concreti che andrebbero fin da subito presi in considerazione: “Sono soprattutto preoccupato che questi modelli possano essere usati per la disinformazione su larga scala” (come è già successo).
Inoltre, per via del progressivo miglioramento nella scrittura del codice informatico, potrebbero anche essere usati per eseguire cyberattacchi”.
I molti timori tuttavia – stando a diversi scienziati informatici, tra cui gli stessi inventori del deep learning – sono avulsi dalla realtà in cui viviamo.
Il dubbio allora sorge spontaneo: siamo sicuri che tutta questa movimentazione “umanitaria” non sia altro che una sofisticata strategia per contrastare i competitor e impedire che la tecnologia dietro l’ intelligenza artificiale diventi open source, invece di restare in mano a pochi? A febbraio, Elon Musk ha reclutato Igor Babuschkin, un ricercatore che ha recentemente lasciato l’ Unità Ai di DeepMind, per mettere a punto una forma rivale di ChatGpt.


Torna alle notizie in home