Negoziare con i robot
L’Italia sta affrontando la sfida con l’intelligenza artificiale e tutto quello che comporta una rivoluzione tecnologica di tale portata senza sottovalutare i rischi. Tuttavia è bene ricordare che anche con un salto tecnologico epocale come quello entrato negli ultimi mesi nelle case degli italiani attraverso ChatGpt, vale sempre la regola che uno strumento in sé non è mai cattivo (o buono): dipende dall’uso che se ne fa.
Sì, certo: la Storia ci insegna che le innovazioni tecnologiche sono state impiegate prima in guerra e poi in pace, e di certo ciò vale pure per Ai, l’intelligenza artificiale secondo l’acronimo inglese. Non è neanche troppo complottista pensare che un giorno Ai possa diventare malvagia – dipende sempre da cosa le diciamo di imparare ed elaborare. Ma per adesso siamo ancora in una fase in cui lo sviluppo è sotto controllo. Non valutarne la portata economica, sia in termini positivi che negativi, sarebbe un grave errore. Allo stesso modo è esagerato pensare che Ai ruberà il lavoro a tutti gli umani, che saranno tutti disoccupati.
I dilemmi etici comunque tengono banco perché fa ancora scalpore la decisione di Geoffrey Hinton, uno dei padri della più recente versione di AI, per dieci anni a Google e che si è dimesso proprio per denunciare i rischi di questa tecnologia. Le aziende stanno correndo verso il pericolo con la loro campagna aggressiva per creare prodotti basati sull’intelligenza artificiale generativa, ossia la tecnologia che alimenta le chatbot come ChatGpt, dove l’interlocutore è Ai, per l’appunto. Allarme condiviso anche da un top manager di Microsoft. Secondo Michael Schwarz, vicepresidente capo economista della multinazionale Usa è convinto che Ai rivoluzionerà il modo in cui opera la maggior parte delle aziende. Che sarà sfruttata dai “cattivi”, come gli spammer e gli hacker, e durante le elezioni, provocando danni reali. Ragion per cui, spiega Schwarz, Ai deve essere regolata in modo inequivocabile secondo il principio che “i benefici della regolamentazione per la società dovrebbero superare i costi”. Sempre in casa Microsoft c’è chi ritiene, soprattutto tra gli sviluppatori, che Ai è già in grado di scrivere un buon codice informatico e che quindi insidia i loro posti di lavoro. Il recente blocco delle assunzioni nel settore delle Big Tech non è un segnale rassicurante, in tal senso.
Venendo a noi, il direttore generale dell’Agenzia per la cybersicurezza nazionale Bruno Frattasi ha fatto presente che riguardo ad Ai “ci sono rischi etici e di grande portata, ma la paura non deve essere uno strumento di freno, bensì deve spingere ad avere regole ed equilibrio nello sviluppo di questi sistemi”. “Dobbiamo pensare in positivo”, ha sottolineato Frattasi secondo il quale questi sistemi tecnologici devono servire a “migliorare la nostra qualità della vita” ricordando le opportunità per esempio “per la medicina o per la mobilità”. Il settore di Ai “è in forte crescita e in Italia” ed ha “registrato un +32% in un solo anno, per un valore pari a 500 milioni di euro; ormai è centrale nei programmi di sviluppo delle imprese di ogni dimensione che investono in Intelligent data processing, Language Ai e Computer vision”. Così il ministro delle Imprese e del Made in Italy, Adolfo Urso. “Siamo particolarmente impegnati nell’analisi e nella composizione delle proposte di Regolamento sull’intelligenza artificiale, ancora in fase di elaborazione a livello di Ue” ha assicurato il ministro. Per quanto riguarda ChatGpt, di nuovo disponibile in Italia da fine aprile dopo il blocco voluto dal Garante della privacy, Urso ha sottolineato che “mostra insidie” e “necessita ancora di una rigorosa regolamentazione”.
Detto questo, però, le aziende si stanno già muovendo per non farsi sfuggire il business, debitamente regolamentato, sia chiaro. Il 49% di dirigenti del Belpaese si dicono infatti convinti della necessità di una regolamentazione per l’uso di Ai, contro la media europea del 35%, mentre il 34% afferma inoltre di avere già un Chief Ai operativo all’interno della propria organizzazione. Il dato emerge da una ricerca di condotta su 2.700 dirigenti nel mondo. In questo siamo avanti, dunque. A maggior ragione norme e controlli adeguati dovranno entrare in vigore prima possibile.
I dilemmi etici comunque tengono banco perché fa ancora scalpore la decisione di Geoffrey Hinton, uno dei padri della più recente versione di AI, per dieci anni a Google e che si è dimesso proprio per denunciare i rischi di questa tecnologia. Le aziende stanno correndo verso il pericolo con la loro campagna aggressiva per creare prodotti basati sull’intelligenza artificiale generativa, ossia la tecnologia che alimenta le chatbot come ChatGpt, dove l’interlocutore è Ai, per l’appunto. Allarme condiviso anche da un top manager di Microsoft. Secondo Michael Schwarz, vicepresidente capo economista della multinazionale Usa è convinto che Ai rivoluzionerà il modo in cui opera la maggior parte delle aziende. Che sarà sfruttata dai “cattivi”, come gli spammer e gli hacker, e durante le elezioni, provocando danni reali. Ragion per cui, spiega Schwarz, Ai deve essere regolata in modo inequivocabile secondo il principio che “i benefici della regolamentazione per la società dovrebbero superare i costi”. Sempre in casa Microsoft c’è chi ritiene, soprattutto tra gli sviluppatori, che Ai è già in grado di scrivere un buon codice informatico e che quindi insidia i loro posti di lavoro. Il recente blocco delle assunzioni nel settore delle Big Tech non è un segnale rassicurante, in tal senso.
Venendo a noi, il direttore generale dell’Agenzia per la cybersicurezza nazionale Bruno Frattasi ha fatto presente che riguardo ad Ai “ci sono rischi etici e di grande portata, ma la paura non deve essere uno strumento di freno, bensì deve spingere ad avere regole ed equilibrio nello sviluppo di questi sistemi”. “Dobbiamo pensare in positivo”, ha sottolineato Frattasi secondo il quale questi sistemi tecnologici devono servire a “migliorare la nostra qualità della vita” ricordando le opportunità per esempio “per la medicina o per la mobilità”. Il settore di Ai “è in forte crescita e in Italia” ed ha “registrato un +32% in un solo anno, per un valore pari a 500 milioni di euro; ormai è centrale nei programmi di sviluppo delle imprese di ogni dimensione che investono in Intelligent data processing, Language Ai e Computer vision”. Così il ministro delle Imprese e del Made in Italy, Adolfo Urso. “Siamo particolarmente impegnati nell’analisi e nella composizione delle proposte di Regolamento sull’intelligenza artificiale, ancora in fase di elaborazione a livello di Ue” ha assicurato il ministro. Per quanto riguarda ChatGpt, di nuovo disponibile in Italia da fine aprile dopo il blocco voluto dal Garante della privacy, Urso ha sottolineato che “mostra insidie” e “necessita ancora di una rigorosa regolamentazione”.
Detto questo, però, le aziende si stanno già muovendo per non farsi sfuggire il business, debitamente regolamentato, sia chiaro. Il 49% di dirigenti del Belpaese si dicono infatti convinti della necessità di una regolamentazione per l’uso di Ai, contro la media europea del 35%, mentre il 34% afferma inoltre di avere già un Chief Ai operativo all’interno della propria organizzazione. Il dato emerge da una ricerca di condotta su 2.700 dirigenti nel mondo. In questo siamo avanti, dunque. A maggior ragione norme e controlli adeguati dovranno entrare in vigore prima possibile.
Torna alle notizie in home