Ai Act: le norme sui sistemi ad alto rischio slittano al 2027. Anche la scuola guadagna tempo
Il Parlamento europeo rimanda le scadenze. Dibattito acceso tra chi difende l’innovazione e chi denuncia un cedimento alle grandi piattaforme tecnologiche
La votazione in commissione
Le commissioni parlamentari europee per il Mercato Interno (Imco) e per le Libertà Civili (Libe) hanno approvato lo scorso 18 marzo una proposta che posticipa l’entrata in vigore delle norme più stringenti dell’AI Act, il regolamento europeo sull’intelligenza artificiale in vigore dal 1° agosto 2024. Il voto ha registrato 101 favorevoli, 9 contrari e 8 astenuti. La plenaria del Parlamento europeo si pronuncerà il 26 marzo; se il mandato sarà confermato, si aprirà la fase di negoziato con il Consiglio per la stesura definitiva del testo.
Nuove scadenze a due differenti velocità
Il rinvio riguarda i sistemi classificati ad alto rischio: quelli elencati direttamente nel regolamento – tra cui biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, forze dell’ordine e giustizia – avranno tempo fino al 2 dicembre 2027. I software che operano come componenti di sicurezza in prodotti già disciplinati da altra normativa europea, come dispositivi medici o apparecchiature radio, potranno invece adeguarsi fino al 2 agosto 2028.
La motivazione tecnica è chiaramente spiegata: gli standard europei indispensabili a stabilire cosa significa concretamente “conformità” per un sistema ad alto rischio non sarebbero stati pronti entro la scadenza originaria del 2 agosto 2026. Senza queste linee guida operative, imprese e istituzioni non avrebbero avuto strumenti certi per orientarsi. Il pacchetto, che fa parte del settimo “Digital Omnibus” varato dalla Commissione europea il 19 novembre 2025, introduce un approccio “stop-the-clock”: le norme entreranno in vigore solo dopo che la Commissione avrà certificato la disponibilità degli standard, entro un massimo di sedici mesi da tale certificazione.
L’istruzione nell’occhio del ciclone normativo
Tra i settori direttamente coinvolti figura la scuola. L’Ai Act considera ad alto rischio i sistemi usati per valutare studenti, gestire accessi a percorsi formativi o somministrare esami. Rientrano in questa categoria le piattaforme di valutazione automatizzata, gli algoritmi di orientamento scolastico e i sistemi di analisi delle performance. Il rinvio offre a dirigenti, docenti e responsabili IT un orizzonte temporale più ampio, ma non autorizza l’immobilismo: il regolamento è già vigente, e una mappatura degli strumenti in uso, accompagnata da un aggiornamento delle procedure interne, rimane un’azione necessaria nell’immediato.
Il nodo del watermarking e le tutele per le imprese
Il pacchetto affronta anche l’obbligo di etichettare digitalmente i contenuti generati dall’intelligenza artificiale – testi, immagini, audio e video. Su questo punto il Parlamento propone una scadenza anticipata rispetto alla Commissione: il 2 novembre 2026 invece del febbraio 2027 inizialmente previsto. Per le piccole e medie imprese sono previste semplificazioni documentali, con un risparmio stimato di almeno 225 milioni di euro annui. Introdotte anche tutele specifiche per le aziende a media capitalizzazione europee, le cosiddette “small mid-cap”, spesso prive delle risorse necessarie ad affrontare iter burocratici molto complessi.
Voci critiche e interrogativi aperti
Brando Benifei, relatore storico dell’Ai Act al Parlamento europeo, ha messo in guardia dal rischio che alcune modifiche si traducano in un vantaggio per i colossi tecnologici a scapito della protezione dei cittadini. L’ex commissario europeo al Mercato Interno Thierry Breton, uno dei padri del regolamento, ha accusato esplicitamente le pressioni esterne – a partire dagli Stati Uniti – di aver orientato le scelte di Bruxelles, invitando le istituzioni comunitarie a difendere la propria sovranità digitale. D’altro canto, la relatrice Arba Kokalari ha ribadito la necessità di regole prevedibili che non penalizzino le aziende che vogliono innovare in modo responsabile.
L’Europa rimane l’unica grande potenza ad aver legiferato organicamente sull’intelligenza artificiale. Ma il cammino verso la piena applicazione dell’AiAct si rivela più complesso del previsto, sospeso tra ambizione regolatoria e competizione globale. Il voto in plenaria del 26 marzo sarà l’ulteriore banco di prova.
Torna alle notizie in home