Attualità

Coronavirus, La pensione Coronavirus, La pensione Coronavirus, La pensione

di Redazione -


*di Angelo Perrone 

 

Tutto positivo lo sviluppo della tecnologia? È sempre radioso il futuro della tecnica? Accanto a innegabili benefici per la collettività, evidenti alle dimostrazioni pratiche, molti sono i problemi. Ci sono anche conseguenze dannose, pericolose o semplicemente indesiderabili. L’intera collettività, oltre che i singoli, può rimetterci. A breve termine, oppure un domani. Sono preoccupanti certi sviluppi dell’innovazione. Il progresso presenta un’ambiguità di fondo. Raramente ne siamo consapevoli e ci attrezziamo per contrastarne i rischi.

La rete informatica è sottoposta ad attacchi dagli hackers: dati personali e informazioni generali, per esempio su sicurezza nazionale, economia, sanità, non sono al sicuro una volta immessi nel web attraverso i computer. Iniziano un lungo viaggio e non si sa quali possano essere gli approdi. Mal protetti contro i furti, sono alla mercé di malintenzionati. Persino grandi banche dati pubbliche, teoricamente superprotette e al riparo da insidie, subiscono incursioni.

Ormai non ci facciamo più caso, ma a spargere dati sensibili siamo noi stessi, ogni volta che ci colleghiamo a qualcosa; accettiamo con facilità di essere geolocalizzati, se molte funzioni lo chiedono. Di buon grado facciamo sapere dove siamo, dove andiamo e per quanto tempo ci fermiamo; clicchiamo sulle più svariate richieste di comunicazione dati che ci vengono sottoposte. Autorizziamo, assentiamo. Elargiamo consensi all’uso delle nostre informazioni senza rifletterci granché, frettolosamente, ansiosi di passare oltre e raggiungere lo scopo del momento. Però poi ci impuntiamo, storciamo il naso, siamo capaci di dotte obiezioni di principio, su questioni che meriterebbero altro approccio. Quando, per esempio, sono a repentaglio beni importanti, come la salute. Ecco che, a proposito del tracciamento antivirus delle persone, si è gridato alla lesione di diritti, tanto che alla fine questo semplice strumento di tecnologia sanitaria non ha funzionato, mentre sarebbe stato utile.

Le tracce di cui è composta la Rete possono essere manipolate con obiettivi di natura politica, economica o di altro genere: da parte di singoli ed organizzazioni. Dapprima, ne ha fatto le spese l’informazione, cioè noi, con il proliferare di fake news, e la diffusione di notizie false.

Lo abbiamo visto in occasione del Covid: a rendere ancora più difficile il momento, lo sfruttamento di paure legittime e perplessità fondate per sostenere tesi antiscientifiche, alimentare ipotesi complottistiche. 

La gestione dei dati è servita a scopi politici, con effetti destabilizzanti. Ha alimentato sino a poco tempo fa il terrorismo islamico; è stata funzionale alla diffusione di tesi sovraniste e populiste; è servita a sostenere sistemi autoritari; ha permesso di fare propaganda per influire sull’esito delle elezioni in paesi rivali, come è accaduto in America.

Il mondo dell’intelligenza artificiale ha bisogno di essere governato con regole condivise tra gli Stati. Per sua natura, la tecnologia non dà garanzie di essere un “sistema democratico”, capace di crescere e svilupparsi nel rispetto dei diritti individuali e sociali. È un campo di valori e di idee, anche di interessi economici, oggetto di inevitabile contesa; necessita di equilibri e garanzie che vanno fissati per mezzo di regole certe. Dove queste mancano, sono maggiori i pericoli per la convivenza civile.

L’uso dei big data in Cina rappresenta, da questo punto di vista, il precedente più sistematico – e pericoloso – per la raccolta e l’utilizzazione, da parte di uno Stato, delle informazioni sul conto dei suoi cittadini. Il “sistema di credito sociale”, introdotto dai cinesi per governare i dati in loro possesso, non è preordinato allo scopo di esercitare il controllo sociale di massa. Tanti altri strumenti possono servire a questo scopo e infatti lo sono. Anzi, apparentemente è motivato da una necessità oggettiva e apprezzabile: gestire numeri enormi e amministrare un territorio sterminato.

Tuttavia, è evidente che il meccanismo lascia spazio ad una sorveglianza (inevitabilmente oppressiva) nei confronti dei singoli perché associa al numero enorme dei dati la vaghezza dei criteri di raccolta e l’opinabilità del giudizio conclusivo (la “reputazione sociale”). Il problema non è solo sapere tutto dei propri cittadini. Quale l’uso delle notizie?

L’obiettivo dichiarato è quello, semplificando al massimo, di attribuire a ciascuno un punteggio per misurare fattori come l’onestà, l’integrità, la credibilità sociale. Difficile immaginare, in difetto di criteri oggettivi e di contrappesi critici, che la “reputazione” finale si discosti tanto dall’osservanza delle direttive del partito unico.

Se questi possono sembrare effetti estremi e perversi dell’uso della tecnologia, dovuti alla politicizzazione di un sistema privo di strumenti liberali, anche nel mondo occidentale non sono minori le problematiche sull’uso dei Big data. Qui il discrimen tra lecito e illecito, tra buone impostazioni e cattive pratiche è più sottile, ma non meno importante, o privo di conseguenze. Anzi, l’insidia maggiore è interna alla formazione degli algoritmi che condizionano le attività quotidiane.

Il rischio consistente è la smentita alla pretesa neutralità delle ideazioni algoritmiche, suffragata apparentemente dall’ampiezza delle misurazioni e dal carattere totalizzante delle informazioni. Anche questa pretesa di completezza, a prima vista oggettiva e rassicurante, è discutibile: gli algoritmi sono pur sempre costruiti dall’uomo con gli elementi da lui forniti. Con quali princìpi di fondo? E per quali scopi?

La completezza del materiale alla fine è, contraddizione in termini, “relativa” perché dipende dai criteri adottati per formare l’insieme dei dati: sono le regole di costruzione del materiale il profilo più problematico. Non sorprende, per esempio, che, a dispetto dall’ampiezza dei dati, sia stato denunciato il carattere discriminatorio (razza, età, genere) di molti algoritmi. In America, un programma per l’assunzione di personale ha presentato la stortura di privilegiare l’accesso dei bianchi a danno dei neri. In Inghilterra, la selezione per l’ingresso alle Università ha mostrato di favorire i ragazzi provenienti da scuole di élite. In Italia, ha destato sorpresa (ma non era imprevedibile) una pronuncia del Tribunale di Bologna del dicembre 2020 a proposito dell’algoritmo utilizzato dalla Deliveroo, catena di food drivers, per assegnare turni e ripartire consegne. La pronuncia ha censurato, come discriminatorio, il buon Frank, nome in codice dell’algoritmo della società.

Che cosa è emerso? Il giudizio di operosità usato per distribuire i compiti e scegliere il personale più adatto (e conveniente all’azienda) si basava su dati incompleti e parziali, perché non teneva conto delle ragioni legittime delle assenze o dei ritardi (malattie, infortuni, impegni familiari, ecc.), penalizzando arbitrariamente alcuni soggetti. Dava una valutazione negativa a mancanze che erano giustificabili, ma per le quali si preferiva non raccogliere spiegazioni.

Il lato oscuro di queste masse di dati era l’assenza di informazioni sui comportamenti del personale, cioè un automatismo delle decisioni basato sull’espulsione, dal meccanismo selettivo, del punto di vista umano (i singoli lavoratori, i loro rappresentati sindacali). L’incompletezza delle masse di dati era lesiva dei princìpi di trasparenza e di accountability (ribaditi dal Regolamento Ue n. 679/2016, in sigla GDPR). L’affidamento sui processi dell’intelligenza artificiale è messo a dura prova da queste osservazioni. Traballa il mito della neutralità delle rivoluzioni scientifiche e con esso l’illusione che gli automatismi nei processi decisionali siano esenti da rischi e incertezze. Non sono certo ragioni sufficienti per rifiutare il progresso o rinunciare all’utilità che esso può apportare in molti campi del vivere civile, a cominciare dalla lotta al Covid. Sarebbe una conclusione frettolosa ed errata. 

Servono però, quelle critiche, a ribadire quanto sia indispensabile l’intervento umano nella raccolta dei dati e nell’impiego finale. Costruire Big data rimane un obiettivo ambizioso e difficile. La completezza e l’efficacia delle analisi dipendono dall’apporto di tutti i contributi possibili.

 

*giurista e scrittore. 

È stato pubblico ministero 

e giudice. Cura percorsi 

di formazione professionale. 

Ha fondato e dirige Pagine 

letterarie, rivista on line 

di cultura, arte, fotografia 

 


Torna alle notizie in home