[Disarmo] Fwd: Sovranismo digitale: il white paper Ue sull’Intelligenza artificiale




---------- Forwarded message ---------
Da: Elio Pagani <eliopaxnowar at gmail.com>
Date: mar 31 mar 2020, 09:08
Subject: Sovranismo digitale: il white paper Ue sull’Intelligenza artificiale
To: Elio Pagani <ElioPaxNoWar at gmail.com>


Sovranismo digitale: il white paper Ue sull’Intelligenza artificiale

Intelligenza artificiale. La commissione europea a febbraio ha pubblicato un white paper che delinea gli usi possibili di alcuni strumenti. E la pandemia di coronavirus non aiuterà a proteggere i nostri dati

La commissaria Ue Ursula von der Leyen visita un centro di AI il giorno prima della pubblicazione del white paper 

La commissaria Ue Ursula von der Leyen visita un centro di AI il giorno prima della pubblicazione del white paper

 © Ap

Tommaso Grossi, Giacomo AntonelliIl Manifesto

31.03.2020

30.3.2020, 23:59

«Poiché la tecnologia digitale diventa un aspetto sempre più centrale nella nostra vita, le persone devono essere in grado di fidarsi».

Recita così l’introduzione alle ventisette pagine del «white paper sull’Intelligenza Artificiale» passato in secondo piano rispetto alla crisi del Coronavirus.

Pubblicato dalla Commissione Europea lo scorso 19 febbraio, il report sottolinea l’importanza di affidabilità e trasparenza come prerequisito fondamentale per l’adozione di nuove tecnologie. Eppure, il forte attaccamento «ai valori europei e allo stato di diritto« non basta a far agire in maniera risoluta la Commissione su tecnologie che di trasparente hanno poco, tra cui quelle per il riconoscimento facciale applicato su vasta scala.

E che durante una pandemia possono essere legittimate a crescere esponenzialmente per arginare la diffusione del contagio. E’ legittimo credere che la presenza di un virus possa effettivamente cambiare lo scenario normativo dello sviluppo tecnologico europeo.

Il white paper fa un passo indietro rispetto al tema del riconoscimento facciale: mesi fa, una prima bozza annunciava uno stop della durata di cinque anni per l’uso di tecnologie di analisi dei tratti del volto. Una moratoria che aveva stupito gli organi di sicurezza sovranazionali, necessaria a valutare i rischi che una massiccia adozione di queste tecnologie può comportare.

Ora che il documento è stato pubblicato in forma ufficiale, la conferma di quanto proposto in fase di stesura viene scartato e le decisioni sul riconoscimento facciale lasciate in mano agli Stati membri.

Per Margrethe Vestager, vicepresidente alle politiche per il digitale dell’Ue, l’uso di tecnologie per il riconoscimento facciale pone senz’altro dei rischi per la violazione dei diritti umani e la collezione indebita di dati sensibili, ma è fondamentale garantire l’autonomia nazionale per lo sviluppo e l’adozione di queste misure. L’obiettivo è di evitare la stagnazione tecnologica, soprattutto se questa può rivelarsi funzionale a questioni di pubblico interesse: in alcuni casi è cruciale un permesso legale per identificare l’identità di una persona, ha spiegato Vestager, in concerto con le leggi nazionali per agevolare la prevenzione e la difesa delle “nostre democrazie”. E, viene da aggiungere, anche per conoscere i movimenti di chi è positivo al virus.

Il white paper conferma il principio di sovranità tecnologica iniziato con il Regolamento Generale sulla Protezione dei Dati del 2016, che tuttavia manca ancora di giurisprudenza interpretativa: all’articolo 22, il Regolamento legifera che la profilazione e la decisione sul trattamento automatizzato dei dati è vietata, come è vietato «identificare in modo univoco una persona fisica, i dati relativi alla sua salute, vita o orientamento sessuale e religioso».

Ma un’inchiesta di The Intercept rivela che lo scambio di dati biometrici tra gli apparati di sicurezza dei paesi membri è già in corso, e riguarda circa 300 milioni di non europei.

Inoltre, se il riconoscimento facciale veniva già usato nel quotidiano, nelle scuole pubbliche svedesi e francesi per monitorare l’assenza scolastica, nelle telecamere montate sui van della London Metropolitan Police e negli aeroporti dei paesi baltici, in piena pandemia l’eccezionalità si fa norma. Centinaia di migliaia di camere di sorveglianza sono adibite ora a verificare il rispetto della quarantena, come in Russia.

E anche in Europa comincia a muoversi qualcosa: Dermalog in Germania e Herta in Spagna, due compagnie di tecnologie biometriche, hanno spostato la loro produzione sullo sviluppo di reti neurali per il riconoscimento facciale che superi il «filtro» delle mascherine, e intensificato la produzione di sensori per la temperatura corporea.

Una produzione tecnologica che sembra favorire un ulteriore accesso sregolato ai nostri dati in favore della salute pubblica, con quegli stessi strumenti che spesso accusiamo di sorvegliare ed esporre origine etnica, frequentazioni politiche, sentimentali e religiose. Sempre con la stessa inquietante retorica di sicurezza e prevenzione avanzata da «piccole e medie imprese che grazie al white paper godranno di nuova fiducia e stimoli», scrive la Commissione.

Ma l’assenza di regolamentazione, più che le imprese nostrane, sembra favorire aziende di taglia più grande, soprattutto di fronte alla crescita esponenziale di attori non europei, su tutti Cina e Stati Uniti, in un periodo storico in cui le scommesse tecnologiche prevalgono sulle conseguenze che esse avranno sulla popolazione. Se prima del Coronavirus il white paper spingeva l’Europa a mettersi in gioco per diventare il mercato più «attraente, dinamico, digitale e sicuro nel mondo» per chiunque investisse in intelligenza artificiale all’interno dei 27 paesi membri, la situazione corrente rimescola le carte, con la Commissione che si incontrerà di nuovo a maggio per discutere il da farsi.

Rimane una logica di realpolitik dietro la cortina prescrittiva della Commissione: l’Europa, con i suoi 3.2 miliardi investiti nel 2016, punta in ogni caso a incrementare la propria economia del digitale e investire in intelligenza artificiale più di Cina (6.5 miliardi) e USA (12.1 miliardi), sfruttando soprattutto il volume di dati individuali e demografici globali che secondo le stime raggiungeranno i 175 zettabytes nel 2025, contro i 33 zettabytes che erano disponibili nel 2018.

Non è una competizione, è una corsa agli armamenti per colonizzare nuove risorse e dati, che da Washington a Pechino sfrutta l’onda dei temi caldi quali sorveglianza, prevenzione, irregolarità e ora anche dell’infezione. Mosca non è da meno e l’Europa vuole darsi da fare per ristabilire il primato economico dell’innovazione, attrarre investitori e talenti della robotica, aumentare la produttività e rendere i lavoratori europei tra i più qualificati al mondo. Soprattutto di fronte di fronte a un mercato del lavoro congelato.

Capitalizzare la forza industriale può senz’altro evitare intrusioni indesiderate da forze ‘illiberali’, ma queste possono ugualmente sorgere all’interno dei confini europei.

Soprattutto in assenza di un sistema di salvaguardia per gli individui a rischio sorveglianza e repressione che la Commissione sarebbe intenzionata a sviluppare solo «in itinere», se non a rivedere completamente in attesa degli esiti di questa crisi. Per la Commissione, la regolamentazione etica dell’IA sembra essere sostanzialmente funzionale allo sviluppo tecnologico europeo. Il rapporto insiste infatti sulla necessità di creare un “ecosistema di fiducia” dentro il quale far progredire il settore dell’intelligenza artificiale in Europa, frenato, secondo la Commissione, proprio dalle preoccupazioni dei cittadini.

La regolamentazione è dunque chiamata a placare queste preoccupazioni affinché non ne blocchino lo sviluppo; lasciando però sorgere dei dubbi.

In fondo, quello che il white paper fa trasparire è un approccio tutto sommato analogo e simpatetico a quello delle grandi compagnie dell’intelligenza artificiale.

Come è stato notato dall’osservatorio AlgorithmWatch, il white paper cita regolarmente società di consulenza come McKinsey, concentrandosi sulle grandi promesse dell’IA: migliorare servizi come la sanità, o combattere l’emergenza climatica. L’intelligenza artificiale viene quindi concepita come un’enorme opportunità da sfruttare, da aggiustare con piccoli accorgimenti tecnici o etici. Un approccio che è il privilegiato dai colossi tecnologici. In quest’ottica si comprendono le soluzioni proposte dalla Commissione, come ad esempio l’uso di dataset più rappresentativi della varietà demografica europea per allenare gli algoritmi.

Misure che potranno difficilmente risolvere le discriminazioni causate da sistemi di intelligenza artificiale, che sono infatti riprodotte dagli algoritmi nella misura in cui sono presenti nei dati stessi, rappresentativi o meno. In molti campi, come ad esempio nel sistema penale, nell’istruzione e nei sistemi di welfare, i dati sono irrimediabilmente e strutturalmente discriminatori, troppo spesso nei confronti di donne e uomini di colore, persone transgender e classi economicamente più vulnerabili.

Per Vestager l’IA non è malvagia, «tutto dipende dall’uso che se ne fa». Ma se l’intelligenza artificiale impara da e riproduce il passato, in molte sue applicazioni questa si configura non come neutra, ma come fondamentalmente conservatrice.

Nello stesso modo, il riconoscimento facciale è e rimane una tecnologia di sorveglianza, essenzialmente autoritaria e opposta a quei valori europei cui la Commissione vorrebbe fare riferimento. E in un periodo storico in cui i dati corporei e facciali possono essere significativi all’arresto di una pandemia, ci si domanda come cambierà l’approccio dell’Europa a riguardo.

La pandemia potrebbe portare infatti i legislatori a ridisegnare l’infrastruttura legale di tutto il white paper, riporta il Financial Times, le cui «restrizioni», se funzionassero come originariamente previsto, rischierebbero di rallentare il ritmo del progresso, mentre scienziati e ricercatori si affrettano a sviluppare vaccini e algoritmi nella lotta contro la malattia.