Primo Piano

Stop a chat Gpt

di Martina Melli -

ORAZIO SCHILLACI MINISTRO


Il garante per la protezione dei dati personali ha bloccato ChatGPT in Italia finché non rispetterà la disciplina privacy. L’Autorità ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAi, la società statunitense che ha sviluppato e gestisce la piattaforma. Le motivazioni del garante riguardano, in particolare, la raccolta illecita di dati personali e l’assenza di sistemi per la verifica dell’età dei minori.
ChatGPT, acronimo di “Generative Pretrained Transformer”, è uno strumento di elaborazione del linguaggio naturale che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane, all’interno di un discorso. Ciò è possibile grazie al fatto che questi algoritmi vengono addestrati su una grande quantità di dati di testo (tra cui oltre 500 Gb di dati tratti da libri, articoli, contenuti Web, conversazioni umane e altro ancora). È oggi il più noto tra i software di intelligenza artificiale relazionale, in grado di interagire con un utente umano, rispondendo in modo proattivo e naturale.
Il software, fin dal suo lancio a novembre 2022, ha generato tanto interesse quanto dubbi e preoccupazioni. In particolare rispetto al suo utilizzo e alle sue applicazioni (dal servizio clienti alla traduzione linguistica, fino alla scrittura creativa) e alla protezione dei dati rilasciati dagli utenti. ChatGPT ha suscitato dibattiti e scalpore anche e soprattutto per via delle sue infinite potenzialità, che fanno temere la scomparsa di certe professioni, come quella giornalistica, in un non lontano futuro.
L’utilizzo di ChatGPT, infatti, è rivoluzionario per quanto riguarda l’automazione di molti compiti, come la scrittura di codici, l’invio di email di routine, oppure la creazione di report standardizzati. Per generare automaticamente un’email, basta inserire valori come destinatario, tono e sunto del messaggio. Per una porzione di codice, è necessario specificare il linguaggio di programmazione, la struttura del codice e la funzionalità desiderata. Ancora, per scrivere articoli, occorre inserire parametri come titolo, tema, stile e numero di battute. L’intelligenza artificiale alla base di ChatGpt non è in realtà particolarmente nuova. Si tratta di una versione di un modello di Ai chiamato Gpt-3, in grado di generare dei testi sulla base dei modelli assorbiti grazie a enormi quantità di testi raccolti dal web. Questo modello, che è disponibile come api commerciale per i programmatori, ha già dimostrato di essere in grado, in alcuni casi, di rispondere alle domande e di generare testi in modo molto efficace. Ma per far sì che il servizio risponda in un determinato modo è necessario inviare al software la richiesta giusta.
Nonostante ciò, anche se ChatGPT viene addestrata su grandi quantità di dati di testo, non ha alcuna comprensione critica del mondo e dunque, presenta notevoli difficoltà a comprendere il contesto di una conversazione o le sfumature del linguaggio umano. Non solo. ChatGPT spesso scrive risposte plausibili ma errate. Una questione delicata perché difficile da correggere: il Chatbot è sensibile alle modifiche nel fraseggio e al tentativo di ripetere la stessa richiesta più volte. L’addestramento supervisionato inganna il modello perché la risposta ideale dipende da ciò che sa il modello, piuttosto che da ciò che sa l’interlocutore umano. Il modello poi è spesso eccessivamente prolisso e abusa di determinate frasi.
Questi problemi derivano da errori nei dati di addestramento (i formatori preferiscono risposte più lunghe che sembrano più complete) e problemi ben noti di ottimizzazione eccessiva.
Idealmente, il modello dovrebbe porre domande di chiarimento quando ricevono una domanda ambigua. Invece, al momento tendono ad indovinare cosa stia cercando di dire l’utente.
Anche se è stato programmato in modo da rifiutare le richieste inappropriate, a volte darà istruzioni pericolose (es. come realizzare una bomba fatta in casa) o farà riferimento a questioni controverse.
Infine, e questo è uno dei lati più controversi, l’utente sarebbe in grado di riconoscere una risposta errata solo nel caso in cui fosse già al corrente della risposta giusta.
Tutto ciò è molto pericoloso: la maggior parte delle persone tende a fidarsi della tecnologia e questo determina una certa facilità nella diffusione di notizie false, incomplete o devianti.
Arvind Narayanan, professore di informatica a Princeton, ha fatto riferimento a questa problematica in un tweet: “Le persone sono entusiaste di utilizzare ChatGPT per l’apprendimento. Spesso funziona. Ma il pericolo è che non puoi dire quando è sbagliato se non conosci già la risposta. Ho provato alcune domande di base sulla sicurezza delle informazioni. Nella maggior parte dei casi le risposte sembravano plausibili ma in realtà erano completamente false”.
ChatGPT non fornisce alcuna garanzia agli utenti: si presenta in questa veste accattivante senza far presente i rischi e senza prendersi nessuna responsabilità degli utilizzi che le persone potrebbero farne.
Inoltre, benché il servizio sia rivolto ai maggiori di 13 anni, non è dotato di alcun filtro per la verifica dell’età degli utenti: questo può esporre i minori a risposte inappropriate rispetto al loro grado di sviluppo e alla loro consapevolezza.
Lo scorso 20 marzo il software ha subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati (esiste una modalità premium a 20 dollari al mese).
Nel software infatti, manca un’informativa che metta al corrente del fatto che i dati vengono raccolti da OpenAi. Manca poi, soprattutto, una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
OpenAi dovrà comunicare entro 20 giorni le misure intraprese per rispondere alle richieste del garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Torna alle notizie in home