L'identità: Storie, volti e voci al femminile Poltrone Rosse



Economia

Intelligenza artificiale, parla l’avvocato Giovanni Spinapolice

di Teresa Gargiulo -


L’avvocato Giovanni Spinapolice, esperto di intelligenza artificiale propone di andare oltre l’AI Act, rilanciando l’idea di un organismo giuridico internazionale fondato su un’etica condivisa, per governare l’impatto dell’IA su informazione, economia e democrazia. Lo abbiamo intervista in occasione della presentazione del suo libro IA – L’Ultimo Uomo e la Macchina. Pensieri dal Transumanismo Inverso, ieri alla Sala stampa della Camera (nella foto, l’autore è l’ultimo a destra).

Lei sostiene che l’AI Act non sia sufficiente. Perché una normativa europea, pur avanzata, non basta?

“L’AI Act è un passaggio storico: è la prima grande regolamentazione moderna dell’IA, costruita per livelli di rischio. Ma non basta per due ragioni strutturali.

La prima è geografica: è una norma europea.

Anche quando viene recepita e integrata negli ordinamenti nazionali – e in Italia abbiamo fatto un passo importante con la legge n.132 del 2025 sulla Pubblica Amministrazione, che disciplina l’uso dell’IA come supporto decisionale nei settori più sensibili, sanità, lavoro, istruzione e giustizia – restiamo comunque dentro un perimetro circoscritto.

La tecnologia, invece, non ha perimetro: viene creata in un Paese, implementata in un altro e usata ovunque.

Senza una cornice condivisa globale, si produce frammentazione e arbitrio: chi vuole eludere le regole trova sempre un luogo dove farlo.

La seconda ragione è temporale e culturale: oggi la tecnologia corre più della norma.

Se ci limitiamo a “regolare dopo”, la legge diventa emergenza, rincorre qualcosa che è già cambiato.

Per governare davvero l’IA serve una visione che preceda lo sviluppo tecnologico, non che lo insegua”.

Nel suo libro propone un organismo giuridico internazionale: come dovrebbe funzionare e che autorità reale avrebbe?

“Io propongo un organismo sovranazionale fondato su tre pilastri: principi comuni, controllo effettivo, giurisdizione.

Non è un salto nel vuoto: nel commercio globale esiste già un modello di governance sovranazionale, l’Organizzazione Mondiale del Commercio (OMC), che funziona proprio perché combina regole condivise e un sistema di risoluzione delle controversie.

Primo: una Etica Evolutiva Universale, come nucleo condiviso, non ideologico, che stabilisca limiti e finalità dell’IA rispetto al bene comune.

Secondo: una Costituzione delle Intelligenze, cioè un quadro di principi superiori che vincoli Stati e operatori nei punti essenziali: centralità dell’umano, responsabilità, trasparenza, tutela dei diritti, divieti chiari su determinati usi.

Terzo: una Corte di Giustizia Universale delle Intelligenze, con funzione concreta: dirimere le controversie aventi ad oggetto l’IA, imporre rimedi, definire standard minimi di conformità e garantire che i principi non restino dichiarazioni ma diventino prassi.

L’autorità reale non nasce dalle parole, ma dai meccanismi. Come nell’OMC, conta la leva effettiva: accesso ai mercati, accesso agli appalti pubblici, accesso alle infrastrutture critiche e ai grandi sistemi.

In sostanza: chi non rispetta gli standard comuni non può operare nei contesti strategici.

È così che si rende effettiva una governance”.

Oggi il potere sull’IA sembra concentrato tra poche big tech e grandi potenze. Chi sta scrivendo le regole?

“Oggi le regole le scrivono, di fatto, due soggetti: chi controlla l’infrastruttura e chi controlla la scala.

Da un lato le big tech, perché fissano standard tecnici, modelli, piattaforme, cloud: e gli standard diventano regole di fatto. Dall’altro le grandi potenze, perché controllano chip, energia, catene di approvvigionamento, dati e sicurezza.

La politica e il diritto spesso arrivano dopo, e quindi non guidano: inseguono. Il rischio è che la governance dell’IA si trasformi in una governance privata o geopolitica, invece che democratica e orientata al bene comune”.

4) Lei parla di “etica evolutiva universale”: è possibile individuare principi condivisi a livello globale?

Sì, a condizione di capire che universalità non significa uniformità.

Non propongo un’etica “di parte”, propongo un minimo comune denominatore che una civiltà tecnologica non può permettersi di perdere.

Principi come dignità, responsabilità, non discriminazione, trasparenza, controllo umano delle decisioni critiche possono essere condivisi anche in contesti geopolitici conflittuali, perché non sono folklore morale: sono condizioni di stabilità sociale.

E soprattutto: questi principi non devono arrivare dopo. Devono precedere la tecnologia e orientarla. È qui che l’etica diventa evolutiva: non descrive solo ciò che è giusto, ma governa la direzione del cambiamento.

Se non si costruisce una governance internazionale forte, qual è il rischio più grande?

“Il rischio più grande non è un evento improvviso, ma un processo silenzioso.

Si parte dalla frammentazione normativa: regole diverse, incompatibili, aggirabili. Si passa poi alla competizione deregolata: una corsa alla potenza e alla velocità in cui la prudenza diventa un handicap competitivo.

E l’esito finale è la progressiva marginalizzazione dell’essere umano: non per un atto violento, ma per delega. Delega del giudizio, della responsabilità, della decisione.

Una società che delega agli algoritmi le decisioni che ne orientano il futuro perde progressivamente il controllo e la responsabilità del proprio ordinamento.

Per questo insisto: non basta “regolare l’IA”. Serve prima una visione di lungo termine, un disegno di società che possiamo tramandare ai nostri figli.

Il cambiamento è epocale: se lo affrontiamo con strumenti concettuali e istituzionali pensati per un mondo diverso, il risultato è che la risposta normativa rischia di diventare obsoleta prima ancora di essere pienamente attuata.

Dobbiamo chiederci, prima della tecnica, quali assetti politici, sociali ed economici vogliamo nell’era dell’IA: quale lavoro, quale welfare, quale distribuzione del potere e della ricchezza, quale tutela della libertà e della dignità.

Solo a partire da questa architettura la governance può prevenire invece di inseguire e può indirizzare lo sviluppo tecnologico verso un nuovo umanesimo tecnologico: una società in cui la macchina potenzia l’uomo, senza sostituirlo”.


Torna alle notizie in home