Attualità

Chat GPT e quell’intelligenza artificiale che ha preso in contropiede l’Europa

di Redazione -


di ANDREA VORTARO *

Diversamente da una calcolatrice che, nel dare un risultato, parte dalle regole con cui è stata programmata ed è pertanto infallibile, ChatGPT – il bot basato sull’Intelligenza Artificiale (“AI”) sviluppato da OpenAI – parte dalle fonti con cui è stato addestrato. L’accusa che gli è spesso mossa, l’inaffidabilità, deriva dall’errata natura che gli si attribuisce: non è un motore di ricerca, ma un modello linguistico che fa leva sul suo patrimonio informativo per permettere svariate applicazioni.
Di fronte alle tante “allucinazioni” – così si definiscono gli errori in cui può incorrere – occorre dunque riconoscere che, al momento, Chat GPT non ha a che fare con la conoscenza, ma con il tempo. Ovvero con la produttività che consente a chi, per studio o per lavoro, può servirsene per riassumere e tradurre testi, rielaborare dati, sbobinare audio oltre a costituire un supporto in attività professionali legate alla comunicazione, al servizio clienti e allo sviluppo informatico.
Se emergono via via forme – come l’integrazione in Bing – che colmano il limite dell’inaffidabilità indicando le fonti da cui la risposta è stata attinta per opportuni approfondimenti, ulteriori sono gli aspetti critici da considerare e tali da minarne un utilizzo duraturo.
Getty Images, ad esempio, la società che gestisce uno dei più ricchi cataloghi di foto e immagini, ha intentato una causa in Gran Bretagna contro una società di AI basando la sua accusa sul fatto che la tecnologia è stata addestrata grazie a contenuti protetti dal diritto d’autore: la diffusione dei modelli linguistici pone infatti nuove sfide normative non solo alle leggi sul copyright, ma a quelle sul trattamento dei dati personali, sulla contraffazione per non parlare dell’uso che può essere fatto per rendere più sofisticati ed efficaci i crimini informatici come il phishing o la disinformazione. La creazione di immagini e video falsi, volti a screditare un individuo, con le nuove tecnologie è dunque alla portata di tutti e pertanto risulta più pervasiva e rischiosa.
Molte sono le aree grigie che l’avvento della AI presenta e che chiamano in causa aggiornamenti o precisazioni non solo da parte delle grandi riforme che in Europa hanno negli ultimi anni regolamentato il mondo digitale come il Digital Services Act, ma anche da parte dello stesso AI Act la cui prima versione, attualmente in discussione presso il Parlamento Europeo, benché molto approfondita su alcuni aspetti critici come il riconoscimento facciale, è stata colta in contropiede dalla diffusione massiva ed improvvisa di Chat GPT.
Se OpenAI, diversamente da sperimentazioni precedenti, pare aver adottato un addestramento più sofisticato per impedire che le risposte fossero connotate da atteggiamenti razzisti, sessisti e violenti, resta in ogni caso aperto il più importante fronte critico: la dimensione etica che non solo attiene ai possibili bias nascosti nelle risposte fornite, ma invoca, nella applicazione concreta di tali servizi, la responsabilità di chi li programma, di chi li integra, di chi li utilizza.

*partner di The Vortex

Torna alle notizie in home