La privacy UE sull’Intelligenza Artificiale è un algoritmo “a partecipazione collettiva”

Non sono più gli utenti ad essere omologati dall’algoritmo in un’Identità Collettiva ma è la Collettività degli Utenti a co-creare l’algoritmo. Ecco la rivoluzione del mondo digitale intelligente così come lo conosciamo. L’Intelligenza Artificiale IA applicandosi ai Big Data non impatta direttamente sulla singola persona ma impatta indirettamente su di essa in quanto appartenente all’ identità collettiva di riferimento.

L’algoritmo di una società assicurativa vaglia i Big Data derivati dagli utenti di braccialetti-fitness-tracer per ricavare la mappa nazionale delle zone a maggior rischio infarto i cui abitanti - di conseguenza - si troveranno a pagare un premio polizza vita più alto. L’algoritmo ha costruito l’identità collettiva-zona a rischio infarto e impatta sull’assicurato in quanto appartenente a quell’identità collettiva. La concezione della privacy UE sull’IA rovescia questa logica prima pone la Collettività degli Utenti e poi l’algoritmo . La Collettività degli Utenti viene invitata a partecipare allo sviluppo del sistema intelligente rendendone legittimo il trattamento ab initio privacy by default e co-progettandolo privacy by design . L’algoritmo data protection compliant sarà a partecipazione collettiva by default e by design. In questa concezione Data Protection l’approccio al rischio ha come riferimento non solo i diritti fondamentali della persona ma anche i diritti dei gruppi o delle comunità . Questo richiede la partecipazione all’algoritmo o al sistema intelligente es. rete neurale di Comitati di Esperti, di Comitati Etici, di Rappresentanti del gruppo potenzialmente coinvolto dall’impatto dell’IA. Il modello Data Protection UE sull’IA pone al centro l’uomo, l’etica, i valori sociali. Inevitabilmente la valutazione di impatto sull’agente IA si spinge oltre l’ambito privacy coinvolgendo la valutazione di impatto sul diritto alla non discriminazione e alla dignità sul diritto alla libertà di espressione alla valutazione sulla tenuta dello stato democratico si pensi all’identificazione biometrica da remoto RBI alla valutazione sull’equilibrio del mercato lato consumatore si pensi all’ubiquità di mercato delle Big Tech e alle concentrazioni tra queste e le aziende di settore come ad es. il matrimonio tra Google e Fitbit ancora sotto la lente dell’Antitrust UE . La Privacy UE sull’Intelligenza Artificiale mira alla programmazione di algoritmi o agenti intelligenti es. reti neurali settati di default sull’equità, sulla non discriminazione, sul rispetto della dignità umana, sulla democrazia, sulla solidarietà. Non è facile addestrare o meglio educare un sistema IA alla solidarietà ma con l’algoritmo a partecipazione collettiva potremmo almeno tentare. Pensiamo ai gruppi dei soggetti vulnerabili come bambini, anziani, persone con disabilità, minoranze etniche o gruppi storicamente emarginati, comunità LGBTQIA, lavoratori e altri a rischio esclusione. Purtroppo, a volte, le loro diversità non vengono contemplate dal set di dati su cui l’algoritmo si è allenato e questo può causare discriminazioni o peggio anche la morte. È successo infatti che un auto driverless abbia investito un handicappato in carrozzina perchè tra il set di immagini per l’allenamento non c’era quella rappresentante la categoria soggetto in carrozzina . Nella maggior parte dei casi gli effetti discriminatori o comunque pregiudizievoli dell’agente IA dipendono da un’errata etichettatura dei dati di addestramento. Ecco perchè seguendo il criterio della solidarietà il data set deve essere sempre sufficientemente rappresentativo in modo da garantire la presenza di tutte le dimensioni rilevanti di genere, di etnia e di altri eventuali motivi di discriminazione si veda Gruppi Vulnerabili , par. 69,70,71-72 EDPS Opinion 4/2020 . La ricchezza di sfaccettature dei modelli rappresentativi si ottiene solo grazie alla partecipazione dei gruppi potenzialmente interessati. Gruppi che partecipano alla co-progettazione dell’algoritmo ma che devono essere messi anche in grado di esercitare un controllo umano per tutto il ciclo di vita del sistema IA. Gli strumenti giuridici cui porre mano per realizzare tutto questo sotto il profilo data protection si trovano essenzialmente nell’Opinion 4/2020 del Garante Privacy UE EDPS unitamente alle Linee Guida della Convenzione 108 sui Big Data e sull’Intelligenza Artificiale. Tutti in commento nel presente contributo in relazione al nuovo legal framework proposto dall’Unione per l’emergente mercato dell’Intelligenza Artificiale.

Il diritto di non essere sottoposti a una decisione automatizzata e quindi assunta da un agente di IA viene sancito dall’art. 22, comma 1, del GDPR 2016/679 L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona . Sempre l’art. 22 al comma 2 salva invece gli smart contract . In generale tuttavia l’interessato conserva il diritto all’opposizione stabilito dall’art. 21 comma 1 fatta eccezione per trattamenti finalizzati all’interesse pubblico. Il Considerando 71 sotteso all’art. 22 sottolinea in modo chiaro che in caso di trattamento automatizzato, deve essere sempre garantita anche una modalità parallela gestita con l’intervento umano. L’interessato può opporsi a decisioni assunte unicamente dalla macchina o dall’agente IA e si lascia intendere dunque che in tali casi si possa pretendere una modalità gestita dall’intervento umano L'interessato dovrebbe avere il diritto di non essere sottoposto a una decisione, che possa includere una misura, che valuti aspetti personali che lo riguardano, che sia basata unicamente su un trattamento automatizzato e che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona, quali il rifiuto automatico di una domanda di credito online o pratiche di assunzione elettronica senza interventi umani . Questa opzione concessa dal GDPR permette all’interessato o al gruppo rappresentativo della posizione comune di tanti interessati di pretendere che il trattamento totalmente automatizzato sia sempre affiancato da una modalità parallela gestita dall’intervento umano . Inoltre nell’ipotesi di trattamento particolarmente pericoloso per cui si preveda un livello di alto rischio il titolare sarà costretto a rinunciare all’utilizzo dell’Intelligenza Artificiale.

L’art. 13 GDPR impone al titolare del trattamento di informare l'interessato f del l'esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all'articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l'importanza e le conseguenze previste di tale trattamento per l'interessato . L’informativa deve essere appunto significativa ovvero deve essere facilmente comprensibile da tutti. E’ assolutamente inutile aprire l’accesso ai codici dell’algoritmo nei confronti di soggetti non esperti perché non capiranno nulla. Risulterà invece appropriato spiegare in modo chiaro gli eventuali pregiudizi in cui si potrebbe incorrere questa è un’informazione significativa . Traducendo in pratica per quanti italiani sarà stata un’informativa significativa la pubblicazione on line dei codici sorgente della App Immuni? L’informativa all’interessato sulla logica dell’algoritmo trova completamento nel diritto di accesso garantito dall’art. 15 GDPR. Diritto che per essere esercitato necessita della garanzia di controllo, possibile soltanto ove venga osservato il principio di trasparenza. A tal fine il Cons. 7 GDPR sottolinea l’importanza dell’instaurarsi di un clima di fiducia tra gli utenti e i titolari del trattamento garantendo agli interessati il controllo sulle proprie informazioni È opportuno che le persone fisiche abbiano il controllo dei dati personali che le riguardano . Il clima di fiducia si favorisce garantendo la trasparenza Cons. 13 GDPR è necessario un regolamento che garantisca certezza del diritto e trasparenza e la trasparenza consente appunto all’interessato di controllare le modalità di trattamento sui propri dati. A livello teorico, il meccanismo risulta perfetto ma cosa succede quando nella realtà si affida alla gestione dell’algoritmo il trattamento dei dati? Saranno garantiti i principi di trasparenza e di controllo? Sarà garantito il diritto di accesso? Se l’algoritmo è dominato dall’intervento umano potremmo avere un riscontro positivo agli esposti quesiti. Se l’algoritmo viene abbandonato a se stesso, consentendo una gestione totalmente autonoma del trattamento, quasi certamente nessun diritto sarà riconosciuto all’interessato. A prova di questo infausto epilogo si cita la sentenza del TAR Lazio sez. III bis n. 10964/2019 del 17 settembre 2019 occupatasi del caso dell’algoritmo impazzito che dirottò molti degli assunti della Buona Scuola a migliaia di Km da casa perché aveva sbagliato la determinazione della mobilità. Il Collegio amministrativo giudicante esclude in via generale l’ipotesi che l’algoritmo possa consentire la partecipazione del privato-interessato al procedimento amministrativo e tanto meno che possa consentire l’accesso agli atti infra-procedimentali, accesso necessario per giungere a un provvedimento definitivo frutto di una corretta istruttoria. L’Alto Collegio osserva Un algoritmo, quantunque, preimpostato in guisa da tener conto di posizioni personali, di titoli e punteggi, giammai può assicurare la salvaguardia delle guarentigie procedimentali che gli artt. 2, 6,7,8,9,10 della legge 7.8.1990 n. 241 hanno apprestato, gli istituti di partecipazione, di trasparenza e di accesso, non possono essere legittimamente mortificati e compressi soppiantando l’attività umana con quella impersonale dell’algoritmo . Invero il Collegio è del parere che le procedure informatiche, finanche ove pervengano al loro maggior grado di precisione e addirittura alla perfezione, non possano mai soppiantare, sostituendola davvero appieno, l’attività cognitiva, acquisitiva e di giudizio che solo un’istruttoria affidata ad un funzionario persona fisica è in grado di svolgere e che pertanto, al fine di assicurare l’osservanza degli istituti di partecipazione, di interlocuzione procedimentale, di acquisizione degli apporti collaborativi del privato e degli interessi coinvolti nel procedimento, deve seguitare ad essere il dominus del procedimento stesso, all’uopo dominando le stesse procedure informatiche predisposte in funzione servente e alle quali va dunque riservato tutt’oggi un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo .

L’art. 24, 25 e il Considerando 78 del GDPR impongono l’intervento umano ancor prima del trattamento grazie ai principi di privacy by default e di privacy by design accompagnati per tutta la vita del procedimento dall’accountability di tutti i soggetti responsabili di ciascuna fase del trattamento. A tal riguardo si pensi alla disciplina del Regolamento UE 2017/745 sui dispositivi medici secondo cui i devices intelligenti dovranno essere accompagnati dalla gestione umana per tutta la loro vita. L’Allegato I Requisiti generali di sicurezza e prestazione del Regolamento UE 2017/745 in vigore dal 26 maggio 2021 stabilisce infatti che il software allocato nei dispositivi medici che grazie al software diventano intelligenti deve essere sviluppato e fabbricato conformemente allo stato dell’arte, tenendo conto dei principi del ciclo di vita dello sviluppo, della gestione del rischio, compresa la sicurezza delle informazioni, della verifica e della convalida . Questo significa che il titolare e tutti i responsabili coinvolti dal dispositivo medico intelligente dovranno farsi carico direttamente della relativa gestione per tutto il relativo ciclo di vita. E’ una catena umana di responsabilità in cui il cedimento anche di un solo anello determina il fallimento di tutti. Così il Cons. 78 In fase di sviluppo, progettazione, selezione e utilizzo di applicazioni, servizi e prodotti basati sul trattamento di dati personali o che trattano dati personali per svolgere le loro funzioni, i produttori dovrebbero essere incoraggiati a far sì che i titolari del trattamento e i responsabili del trattamento possano adempiere ai loro obblighi di protezione dei dati .

L’IA come qualsiasi altra tecnologia presenta pregi e difetti. Minimizzare i difetti costituisce l’obiettivo di un utilizzo responsabile di questo straordinario mezzo digitale. Minimizzare i difetti costituisce anche una delle mete principali della Data Protection UE che risulta geneticamente settata sulla coppia risk based-accountability . Il GDPR 2016/679 si gioca tutto sulla gestione del rischio in via preventiva e quindi detiene in se’ i principi per affrontare anche i fenomeni di IA. Al riguardo si registrano posizioni contrastanti. Autorevole dottrina G. Finocchiaro sostiene che il GDPR risulta difficilmente applicabile ai trattamenti di dati di massa tipici dell’IA e dei Big Data a causa della logica del Regolamento, basata sull’autodeterminazione e sulla gestione personale dell’interessato dei propri dati G. Finocchiaro AI e privacy in Ugo Ruffolo Intelligenza Artificiale. Il diritto. I diritti. L’etica. Giuffrè, Milano, 2020, p. 247, https //shop.giuffre.it/intelligenza-artificiale-il-diritto-i-diritti-l-etica.html mentre i sistemi intelligenti appaiono schiacciare il principio dell’autodeterminazione informativa. Altra parte di autorevole dottrina fra molti A. Amidei sostiene una tesi diversa secondo cui l’impianto normativo esistente con i dovuti assestamenti possa comunque restare il punto di riferimento La Risoluzione del Parlamento europeo del febbraio 2017 suggeriva alla Commissione la formulazione di una direttiva concernente norme di diritto civile sulla robotica. La prospettiva di un siffatto intervento normativo omnicomprensivo pare, tuttavia, essere stata ad oggi a ragione implicitamente superata troppo numerosi e troppo differenti sarebbero, infatti, i settori che dovrebbero essere interessati da una tale ipotetica norma da problemi di liability, a questioni di proprietà industriale e privacy, fino a tematiche di natura eminentemente tecnica e settoriale ed eccessivamente elevati sarebbero i rischi per la coerenza per la coerenza dell’ordinamento sia quello unionale, sia quello dei singoli Stati membri . Inizia invece a lentamente affermarsi, in sede UE, la posizione di chi sostiene la necessità non di radicali innovazioni normative, bensì di un attento processo di revisione ed assessment del vigente corpus legislativo al fine di valutarne la compatibilità rispetto ai nuovi scenari posti dall’IA, ed in particolare dalla sua imperscrutabilità . A. Amidei La governance dell’Intelligenza Artificiale profili e prospettive di diritto dell’Unione Europea. Giuffre’, Milano, 2020, p. 586-587, https //shop.giuffre.it/intelligenza-artificiale-il-diritto-i-diritti-l-etica.html . Al netto del dibattito dottrinale, possiamo osservare che i concetti-chiave della Data Protection UE continuano a costituire diritto vivente nelle attualizzazioni delle Linee Guida della Convenzione 108 e nell’Opinion 4/2020 del Garante UE EDPS sul Libro Bianco dedicato al modello IA europeo.

L’attualizzazione del GDPR eseguita dalla Convenzione 108 e dal Garante UE EDPS risulta dovuta soprattutto al problema centrale dell’IA il rischio di perdita del controllo umano sull’agente IA. L’evento automatico decisione senza mediazione dell’uomo irrompe nell’ordinamento causando a cascata tutta una serie di ricadute potenzialmente pregiudizievoli. Innanzitutto, si registra l’azzeramento del diritto all’autodeterminazione informativa per l’impossibilità di controllare la logica di trattamento effetto black box e ancor prima per il difetto di informativa sull’eventuale secondary use delle nostre informazioni personali convogliate in dataset solo apparentemente massivi e anonimi sappiamo tutti che l’anonimato è un concetto relativo . Da questo possono derivare effetti discriminatori di ogni tipo a partire dall’algoritmo razzista COMPAS fino a giungere all’algoritmo ginofobico di Amazon per il reclutamento di sviluppatori software https //www.corrierecomunicazioni.it/over-the-top/allintelligenza-artificiale-di-amazon-non-piacciono-le-donne-scartati-i-cv-femminili/ . In stato di emergenza sanitaria es. coronavirus l’algoritmo potrebbe decidere di scartare dall’assistenza medica gli anziani in quanto soggetti probabilmente già persi e preferire i giovani. Il tutto basandosi unicamente sul dato personale età . Gli algoritmi sono pieni di pregiudizi bias ed hanno bisogno dell’intervento umano per rendere un servizio degno di questo nome. Un servizio che metta l’uomo al centro riaffermando tutti i diritti fondamentali e i valori etici e sociali in una dimensione contestuale di individuo dati personali e di collettività dati aggregati . L’algoritmo o la rete neurale affermano la loro valenza quando concretizzano il rapporto dell’uomo con l’ambiente circostante in riferimento a un determinato bene o servizio. Falliscono invece quando replicano ossessivamente se stessi straniandosi dalla realtà, privati del loro unico valore l’abilità narrativa del reale datificato. Tutto dipende allora dal tipo di reale desiderato. In sostanza in che mondo vogliamo vivere? Un mondo equo, antropocentrico e accogliente o inclusivo welfare rappresenta l’obiettivo di fondo della maggior parte delle società esistenti che non rifuggono dal consentire la circolazione dei patrimoni informativi essenziale per l’economia digitale ma pretendono che ciò avvenga in modo corretto. In definitiva pretendono che venga garantita la Data Protection. I principi e i criteri della Data Protection UE sui sistemi di IA si trovano nelle Linee Guida della Convenzione 108 Big Data del 23.01.17 e IA del 25.01.19 [1] e nel Parere [2] EDPS 4/2020 del 29.06.20 sul Libro Bianco della Commissione dedicato all’IA. La Convenzione 108 adotta per l’IA gli stessi criteri e principi indicati nelle Linee Guida sui Big Data. Pertanto molte delle raccomandazioni sui Big Data mutatis mutandis vengono riproposte per l’Intelligenza Artificiale nelle Linee Guida sull’IA. Il Garante UE EDPS nell’Opinion 4/2020 si concentra essenzialmente sull’approccio basato sul rischio sul modello giuridico IA proposto dal Libro Bianco sui requisiti specifici per l'identificazione biometrica da remoto incluso il riconoscimento facciale . All’esito di un’analisi comparata di questi tre documenti a vocazione normativa, si evincono gli orientamenti attuali della disciplina europea Data Protection sui sistemi digitali intelligenti . Essenzialmente i principi, i criteri e i rimedi principalmente raccomandati sono i seguenti - principio di precauzione e accountability , limitazione dell’utilizzo di IA - valutazione del rischio a livello di gruppi o comunità potenzialmente suscettibili di restare vittime dello stesso tipo di algoritmo o di rete neurale - partecipazione by default di tutti i soggetti coinvolti dall’agente IA o dai relativi possibili effetti singoli interessati, gruppi o comunità interessate, stakeholders, comitati di esperti, comitati etici - partecipazione by design di tutti i soggetti algoritmo-dipendenti per l’elaborazione di un modello IA equo, antropocentrico, inclusivo - catena di responsabilità dinamica di tutti i gestori titolari, contitolari, responsabili esterni del procedimento algoritmico dall’inizio alla fine del relativo ciclo di vita - catena di sorveglianza dinamica di tutti i gestori per tutto il ciclo di vita dell’algoritmo in un processo di addestramento costante verso soluzioni migliorative - trasparenza dell’algoritmo favorita dalla partecipazione preventiva by default e by design - modelli di DPIA stabiliti dalle Autorità di controllo nei casi di trattamenti IA ad alto rischio . Linee guida sui Big Data del 23 gennaio 2017 Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data Consiglio d’Europa Convenzione 108, https //rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0 Linee Guida su IA del 25 gennaio 2019 Artificial Intelligence and Data Protection Consiglio d’Europa Convenzione 108, https //rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8 Queste Linee Guida sono state elaborate sulla base del Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies del 25 gennaio 2019 https //rm.coe.int/artificial-intelligence-and-data-protection-challenges-and-possible-re/168091f8a6 EDPS parere 4/2020 del 29 giugno 2020 EDPS Opinion on the European Commission’s White Paper on Artificial Intelligence , https //edps.europa.eu/sites/edp/files/publication/20-06-19_opinion_ai_white_paper_en.pdf

Un algoritmo può essere razzista? Cade il mito dell’oggettività matematica dei sistemi di IA di fronte al famoso caso dell’algoritmo COMPAS Correctional offender management profiling for alternative sanctions . I giudici statunitensi si avvalevano di COMPAS per stabilire la probabilità di recidiva degli imputati una volta tornati in libertà. Purtroppo, a seguito del Caso Loomis Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April 13 July 2016 è stato accertato che l’algoritmo era razzista in quanto sovrastimava il rischio di recidiva degli imputati di colore e sottostimava quello dei bianchi. Nonostante questo, Loomis non ha ottenuto la vittoria della causa intrapresa per violazione del diritto a un equo processo perché l’Alta Corte ha stabilito che i giudici precedenti avevano comunque considerato anche altri fattori e che il COMPAS non era stato determinante nella decisione assunta. Al di là della sorte di Loomis, il caso ha destato clamore a livello globale perché ha reso di palmare evidenza la fallibilità dei sistemi di IA ove non assistiti dall’uomo o non utilizzati con la dovuta discrezionalità umana. L’algoritmo subisce il condizionamento della qualità dei dati forniti , dei criteri impartiti dal programmatore e delle dinamiche impartite nel periodo di addestramento. A causa di tutte queste variabili l’algoritmo può essere vittima di bias ovvero di pregiudizi che ne falsano i risultati. Il Considerando 71 del GDPR si preoccupa del rischio di trattamenti discriminatori e raccomanda al titolare di assumere tutte le misure adeguate per impedire effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento sessuale, ovvero un trattamento che comporti misure aventi tali effetti . A maggior ragione, stante l’alto rischio di decisioni discriminatorie, il GDPR limita fortemente il processo decisionale automatizzato e la profilazione basati su categorie particolari di dati personali stabilendo che possano essere ammessi solo a determinate condizioni.

Il parere 4/2020 del Garante Privacy UE EDPS sul Libro Bianco dedicato all’IA, prende le distanze dall’entusiasmo del legislatore europeo verso tale mezzo tecnologico effigiato come panacea universale. L’EDPS osserva che l’IA non è il proiettile d’argento in grado di risolvere magicamente tutti i problemi ed invita ad una visione più equilibrata AI comes with its own risks and is not a silver bullet’ that will solve all problems. Benefits, costs and risks should be considered by anyone adopting a technology, especially by public administrations who process great amounts of personal data . Essenzialmente il parere si concentra sui tre punti principali del Libro Bianco - l’approccio basato sul rischio - il modello tecno-giuridico e tecno-etico proposto come AI legal framework UE - l’identificazione biometrica da remoto. Gli argomenti trattati dall’Opinion 4/2020 si collocano nell’ambito degli ultimi orientamenti della Privacy UE o meglio della Data Protection UE riferiti all’Intelligenza Artificiale. I testi a vocazione normativa dedicati al tema sono i seguenti - Linee guida sui Big Data del 23 gennaio 2017 Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data Consiglio d’Europa Convenzione 108, https //rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0 - Linee Guida su IA del 25 gennaio 2019 Artificial Intelligence and Data Protection Consiglio d’Europa Convenzione 108, https //rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8 Queste Linee Guida sono state elaborate sulla base del Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies del 25 gennaio 2019 https //rm.coe.int/artificial-intelligence-and-data-protection-challenges-and-possible-re/168091f8a6 - Test di proporzionalita’ del 19 dicembre 2019 EDPS Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal data utile a livello operativo https //edps.europa.eu/sites/edp/files/publication/19-02-25_proportionality_guidelines_en.pdf . L’ unico sfondo normativo almeno per il momento - su cui campeggiano le indicate linee guida è costituito dal GDPR, articolo e 22+Cons. 71 sul diritto a non essere sottoposto a decisioni unicamente automatizzate dal GDPR art. 24 e 25+Conumero sull’accountability per l’intero ciclo di vita del device intelligente dal GDPR art. 13 e 15+Cons. 7 e 13 sull’accesso alla logica dell’algoritmo dal GDPR Cons.71 sul principio di non discriminazione.

A questa seconda fase appartiene il pacchetto di documenti Shaping Europe’s Digital Future del 19 febbraio 2020 che mira a diventare un modello di riferimento mondiale per l'economia digitale. Questo pacchetto di proposte comprende - la comunicazione quadro Plasmare il futuro digitale dell'Europa COM 2020 67 - la comunicazione Una strategia europea per i dati COM 2020 66 - il Libro Bianco Intelligenza Artificiale. Un approccio europeo all'eccellenza e alla fiducia COM 2020 65. Grazie alla nuova ondata di flussi informativi massivi Big Data liberati dai dispositivi immessi nell’infrastruttura edge computing, l’Europa spera di monopolizzare dei settori digitali strategici come quello pubblico dei trasporti, quello sanitario Smart Health e mHealth , quello dei servizi digitali, quello della costruzione e dell’accesso a dataset di qualita’. Così nella COM 2020 66 Una strategia europea per i dati in cui l’obiettivo della data-strategy è quello di creare uno spazio unico europeo nei settori economici strategici e di pubblico interesse come, ad esempio, l’european health data space spazio europeo dei dati sanitari . In proposito l’EDPS ha redatto il parere Opinion 3/2020 on the European strategy for data del 16 giugno 2020 https //edps.europa.eu/sites/edp/files/publication/20-06-16_opinion_data_strategy_en.pdf . I principali obiettivi del Libro Bianco Intelligenza Artificiale. Un approccio europeo all'eccellenza e alla fiducia COM 2020 65 si individuano come segue - elaborazione di un modello giuridico IA o AI legal framework uniforme per tutti gli Stati Membri che possa essere competitivo con i modelli dei Paesi Terzi Cina, Giappone USA, Corea del sud - iniezione di fiducia nella società verso l’utilizzo dei sistemi IA grazie all’impiego dell’etica e all’invito alla partecipazione allo sviluppo degli algoritmi rivolto agli stakeholders e ai cittadini interessati - costruzione di un corretto paradigma di approccio al rischio distinguendo tra un rischio alto per cui sono obbligatorie determinate procedure e un rischio basso per cui si ammette la certificazione volontaria. Il Libro Bianco è stato sottoposto al vaglio dell’EDPS che il 29 giugno 2020 ha pubblicato il proprio parere 4/2020 EDPS Opinion on the European Commission’s White Paper on Artificial Intelligence https //edps.europa.eu/sites/edp/files/publication/20-06-19_opinion_ai_white_paper_en.pdf .

Il legislatore europeo mira alla costruzione di un legal framework o modello giuridico avanzato per vestire il fenomeno della datificazione del reale pervaso dalle reti neurali dell’Intelligenza Artificiale IA applicate ai Big Data. Si tratta di un modello giuridico multidisciplinare abitato dalle tutele dei diritti fondamentali, dalla disciplina antitrust e a tutela del consumatore, dalla data protection, da competenze tecno-statistiche, tecno-etiche e tecno-sociali. L’infrastruttura tecnologica internet maggiormente utilizzata fino ad oggi è quella del cloud computing ma presto avremo la nuova tecnologia dell’ edge computing che imprimerà al web una sferzata in termini di velocità e di potenza. Questi due diversi tipi di infrastrutture segnano una prima e una seconda fase del mondo digitale. La fase del cloud computing è stata dominata dallo strapotere delle piattaforme estere, sovrane incontrastate sui patrimoni informativi dei cittadini europei. La fase dell’edge computing dovrebbe inaugurare una tendenza opposta in cui l’Europa si riappropria dei dati prodotti dai propri utenti nonchè dei Big Data liberati dai dataset e dai dispositivi mobili intelligenti. Seguendo l’avvicendarsi dell’edge computing al cloud computing, possiamo distinguere un primo modo dell’UE di inquadrare il fenomeno dell’Intelligenza artificiale che chiameremo IA Modello UE. Prima Fase e un secondo modo che chiameremo IA Modello UE. Seconda Fase . Nel periodo denominato IA Modello UE. Prima Fase , il legislatore europeo ha faticato a mettere a fuoco la questione dell’Intelligenza Artificiale restando al livello di buoni propositi di carattere giuridico programmatico e di carattere etico. L’Unione dimostra attenzione per questo settore con la Risoluzione del 16 febbraio 2017 Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica con cui il Parlamento invita la Commissione a formulare una proposta di direttiva sulla responsabilità derivante dai danni causati dai robot al momento ricompresa nella responsabilità da prodotto difettoso , sulle ricadute giuslavoritische per le imprese e sulla proprietà industriale sui devices sanitari intelligenti. Segue il 12 maggio 2017 la Comunicazione della Commissione A connected Digital Single Market for all COM 2017 228. Il 25 aprile 2018 arriva il primo documento dedicato interamente al fenomeno, rubricato Artificial Intelligence for Europe COM 2018 237 seguito dalla Risoluzione del 3 ottobre 2018 Tecnologie di registro distribuito e blockchain . Nonostante l’apertura del dibattito, il Parlamento Ue nella Risoluzione 12 febbraio 2019 Una politica industriale europea globale in materia di robotica e intelligenza artificiale si rammarica del ritardo normativo registrato dall’Unione rispetto a Paesi terzi già dotati di normative ad hoc come Cina, Giappone, Stati Uniti, Corea del Sud paventando il rischio di dover subire le loro ben diverse normative in mancanza di una legge unionale. Le linee di tensione normativa europee si possono ricondurre - al tema dell’ etica nell’IA Progetto di orientamenti etici per un’IA affidabile bozza presentata il 18 dicembre 2018 dal Gruppo di esperti UE ad alto livello sull'intelligenza artificiale - AI HLEG https //ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai - al tema della responsabilità da IA che al momento resta spalmata nell’ambito della responsabilità da prodotto difettoso. A livello settoriale abbiamo dei documenti nell’ambito dei dispositivi sanitari intelligenti e delle auto driverless Regolamento UE 2017/745 sui dispositivi medici Medical Devices Regulation - MDR in vigore dal 26 maggio 2021 e la Risoluzione del 15 gennaio 2019 Autonomos driving in European transport . In tema di pricing algorithm abbiamo la Direttiva UE 2019/2161 Better Enforcement Directive a tutela dei consumatori del mercato digitale cui viene riconosciuto il diritto ad essere informati prima di essere sottoposti all’applicazione di un prezzo personalizzato a seconda del profilo evinto dall’IA tecnica del pricing algorithm . In tema di responsabilità da sicurezza dei prodotti o servizi digitali abbiamo la Risoluzione del 12 febbraio 2020 Automated decision-making process Ensuring consumer protection and free movement of goods and services sempre a tutela dei consumatori di fronte ai robot avanzati si auspica la costituzione di un adeguato modello di valutazione del rischio e l’assicurazione obbligatoria a carico dei produttori. Inoltre in merito al problema dell’IA nei servizi resi dai professionisti legali o medici o anche broker bancari e finanziari si auspica il costante controllo umano sulle decisioni rese dal bot.

Chiedendo anticipatamente scusa agli esperti in materia, si fornisce qualche informazione di base sul funzionamento dei sistemi intelligenti. L’ Intelligenza Artificiale è tornata in auge grazie ai Big Data e all’accresciuta potenza di calcolo. Fattori indispensabili per i sistemi intelligenti. Le piattaforme digitali come i motori di ricerca o i social network sono dei sistemi intelligenti in quanto in grado di ragionare e di autoapprendere machine learning . Attualmente non esiste una definizione di Intelligenza Artificiale univoca e così in questa sede è parso appropriato riportare quella del [1] Gruppo degli Esperti di Alto Livello UE in materia I sistemi di intelligenza artificiale AI sono sistemi software ed eventualmente anche hardware progettati dagli esseri umani che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il loro ambiente attraverso l'acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza, o elaborando le informazioni derivate da questi dati, e decidendo la migliore azione o le migliori azioni da intraprendere per raggiungere l'obiettivo dato. I sistemi di intelligenza artificiale possono utilizzare regole simboliche o imparare un modello numerico, e possono anche adattare il loro comportamento analizzando come l'ambiente è influenzato dalle loro azioni precedenti . L’ algoritmo è una delle componenti fondanti del sistema intelligente che però comprende anche molti altri elementi come quelli di statistica o di neuroscienze per le reti neurali. Più algoritmi coniugati con i saperi multisettoriali presenti nel sistema IA attivano il processo di creazione ma la fase principale attiene al lavoro di addestramento del prototipo condotta su un data set ben preciso a seconda dell’obiettivo prestabilito. L’ addestramento è il momento dell’imprinting in cui il sistema impara a riconoscere i modelli forniti e a imitare il tipo di ragionamento impartito dagli sviluppatori grazie agli algoritmi. Appena addestrato, il sistema viene sperimentato verificando che i relativi output non siano distorti rispetto agli input immessi. Una volta a regime, il sistema è capace di autoapprendere machine learnig dai feedback dell’ambiente circostante e dai comportamenti degli umani con cui entra in contatto. Pensiamo al robot destinato all’assistenza personale che apprende non solo dal proprio educatore ma anche dai feedback dell’assistito. In questi casi è indispensabile mantenere sotto controllo la macchina e soprattutto avere una macchina prevedibile tali input producono tali output . Per esempio, il robot è stato educato a non insistere se il nonnino si rifiuta di prendere le medicine e si comporta come previsto. Forti problemi di prevedibilità e quindi anche di controllo si registrano con le reti neurali deep learning . La rete neurale viene attivata dagli algoritmi ma poi al proprio interno sviluppa degli algoritmi propri di apprendimento che funzionano come i neuroni del cervello umano. Si parla di rete neurale proprio perchè viene creata sul modello di funzionamento dei neuroni cerebrali. In realtà il tipo di ragionamento sviluppatosi nei meandri interiori della rete neurali resta nascosto e incomprensibile perfino per gli sviluppatori del sistema IA. Pertanto al fine di evitare risultati output indesiderati e non prevedibili si ricorre all’apprendimento supervisionato o a quello di rinforzo rifuggendo dall’apprendimento non supervisionato perchè i relativi output non sono prevedibili. Ricapitolando nell’ambito dei sistemi di Intelligenza Artificiale abbiamo la componente degli algoritmi prevedibili machine learning e la componente della rete neurale deep learning . Sia consentito riportare uno schema a fini esemplificativi. Schema semplificato della scomposizione dell’Intelligenza Artificiale a cura della scrivente All’esito di questa brevissima analisi, risulta chiaro che il sistema IA è prevedibile e pertanto controllabile solo ove venga addestrato e monitorato dall’ intervento umano . Risulta sconsigliabile adottare le reti neurali non supervisionate perchè potrebbero sortire delle sorprese sgradite. In realtà anche nelle reti neurali con apprendimento supervisionato o di rinforzo non è possibile conoscere la logica del processo decisionale interno della macchina perchè resta nascosto hidden . L’intervento umano serve anche a correggere questo effetto scatola nera black box grazie alla supervisione o alle attività di rinforzo che stimolano la rete neurale a comportarsi in un certo modo. Un altro fattore determinante per ottenere i risultati attesi dalla rete neurale è costituito dal data set. Una massa informativa non sufficientemente attinente agli obiettivi attesi produce risultati fuorvianti. Una non sufficientemente rappresentativa causa effetti discriminatori. Pertanto l’accuratezza nella scelta dei dati di addestramento del sistema IA risulta determinante. Il mito della macchina capace di assumere decisioni in via autonoma che un giorno si sostituirà all’uomo, per il momento resta nell’iconografia dei film di fantascienza. Le reti neurali non supervisionate e quindi in teoria capaci di assumere decisioni da sole non risultano economicamente appetibili il mercato vuole una Intelligenza Artificiale affidabile . AI-HLEG, High-Level Expert Group on Artificial Intelligence, A definition of Artificial Intelligence main capabilities and scientific disciplines , 2019, https //ec.europa.eu/newsroom/dae/document.cfm?doc_id=56341 .

Intelligenza Artificiale, Big Data, Edge Computing sono il mercato emergente, un’ opportunità che l’Europa non vuole mancare soprattutto dopo essere stata soppiantata dalle Big Tech dei Paesi Extra UE nella prima ondata informativa digitale delle piattaforme del cloud computing. L’Unione è già ai blocchi di partenza con il pacchetto Shaping Europe’s Digital Future [1] del 19 febbraio 2020 in cui troviamo il Libro Bianco sull’IA e Una strategia europea per i dati COM 2020 66. L’Europa con il Libro bianco [2] 19.2.2020 sull’Intelligenza Artificiale IA lancia il suo legal framework per l’emergente mercato digitale IA . In questo nuovo quadro a vocazione normativa si ipotizza l’eventualità di un enforcement privacy dedicato esclusivamente al settore IA. Il Garante UE EDPS si pronuncia con il parere 4/2020 [3] che unitamente alle Linee Guida della Convenzione 108 sui Big Data [4] e sull’IA [5] va a costituire il cuore dei documenti privacy in materia. Addirittura nel Libro Bianco si ritiene che il settore dell’assistenza sanitaria e dei trasporti siano già maturi per la partenza. Si pensi al Regolamento UE 2017/745 sui dispositivi medici Medical Devices Regulation - MDR in vigore dal 26 maggio 2021 e alla Risoluzione del 15 gennaio 2019 Autonomos driving in European transport . In tema di pricing algorithm abbiamo la Direttiva UE 2019/2161 Better Enforcement Directive a tutela dei consumatori del mercato digitale cui viene riconosciuto il diritto ad essere informati prima di essere sottoposti all’applicazione di un prezzo personalizzato a seconda del profilo evinto dall’IA tecnica del pricing algorithm . In tema di responsabilità da sicurezza dei prodotti o servizi digitali abbiamo la Risoluzione del 12 febbraio 2020 Automated decision-making process Ensuring consumer protection and free movement of goods and services . Fiore all’occhiello del nuovo modello IA europeo è il Progetto di orientamenti etici per un’IA affidabile , bozza presentata il 18 dicembre 2018 dal Gruppo di esperti UE ad alto livello sull'intelligenza artificiale - AI HLEG https //ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai . Cosa manca per iniziare davvero? Una bella spinta propulsiva. A tal riguardo l’Unione sta preparando un bel piano di deregulation negli ambiti in cui i sistemi intelligenti non presentano un alto rischio di impatto privacy. Agli albori del primo mercato digitale la deregulation trovò vita nell’esenzione di responsabilità a favore degli ISPs art. 15 Direttiva e-Commerce 2000/31/CE art. 17 D.Lgs 70/2003 proprio per promuovere l’avvio del mercato della Società dell’Informazione. E’ possibile però esentare da responsabilità privacy gli stakeholders del settore IA? Il Garante UE dimostra di non condividere la visione dell’Esecutivo riaffermando i criteri di responsabilità del GDPR coniugati con un approccio al rischio stratificato piuttosto che un approccio unicamente concentrato sull’ alto rischio come proposto dal Libro bianco IA. Impostare nel settore IA il sistema data protection sul criterio dell’ alto rischio significa regolamentare solo gli stakeholders degli ambiti a massimo impatto mHealth assistenza sanitaria mobile da remoto auto driverless e lasciare liberi tutti gli altri di aderire se credono a dei codici di condotta o a delle certificazioni su pura base volontaristica. Ma chi lo dice che questi abbiano meno probabilità di Data Breach? Occorrerebbe un elenco aggiornabile a cura delle Autorità di controllo sulle attività intelligenti obbligate alla DPIA. Ma come si fa la DPIA nel mercato intelligente alimentato dai Big Data? I Big Data non sono direttamente riferibili al singolo individuo in quanto dati aggregati e/o anonimi anonimo però è un concetto relativo . Qui il Data Breach si manifesta soprattutto come un effetto indiretto che impatta sull’interessato in quanto appartenente a un gruppo, a una c.d. Identità collettiva . In questi casi risulta veramente difficile eseguire la DPIA. La soluzione suggerita dal Garante Ue ma anche dalla Convenzione 108 consiste nel cambiare il tipo di approccio al rischio si passa dal rischio targetizzato sul singolo al rischio targettizzato sui gruppi. Quali conseguenze comporta il target Gruppi o Identità Collettive nell’approccio del rischio? La responsabilità privacy da IA coinvolge non solo i diritti fondamentali ma anche i valori sociali come ad esempio la tenuta dello stato democratico si veda la questione dei sistemi di identificazione biometrica da remoto RBI oppure l’equilibrio del mercato di riferimento pensiamo alla concentrazione tra Google e Fitbit nel mercato dell’assistenza sanitaria mobile da remoto mHealth . La datificazione del reale operata dall’avvento dell’IA applicata ai Big Data - e quindi la monetizzazione del dato divenuto merce di scambio - ha aperto un canale osmotico tra e-Privacy e Antitrust. Cosicché il Garante Privacy intervenendo sui dati interviene anche nel mercato e l’Antitrust intervenendo sul mercato interviene sui dati. Si pensi in questo senso all’ Indagine conoscitiva sui Big Data [6] pubblicata il 10.2.2020 condotta in cooperazione tra Garante Privacy, Antitrust e AGCOM. Questo pacchetto di proposte comprende - la comunicazione quadro Plasmare il futuro digitale dell'Europa COM 2020 67 - la comunicazione Una strategia europea per i dati COM 2020 66 - il Libro Bianco Intelligenza Artificiale. Un approccio europeo all'eccellenza e alla fiducia COM 2020 65. Libro bianco sull'intelligenza artificiale. Un approccio europeo all'eccellenza e alla fiducia 19.2.2020, COM 2020 65, https //ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf EDPS 4/2020, Opinion on the European Commission’s White Paper on Artificial Intelligence. A European approach to excellence and trust https //edps.europa.eu/sites/edp/files/publication/20-06-19_opinion_ai_white_paper_en.pdf Linee guida sui Big Data del 23 gennaio 2017 Guidelines on the protection of individuals with regard to the processing of personal data in a world of Big Data Consiglio d’Europa Convenzione 108, https //rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0 Linee Guida su IA del 25 gennaio 2019 Artificial Intelligence and Data Protection Consiglio d’Europa Convenzione 108, https //rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8 Queste Linee Guida sono state elaborate sulla base del Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies del 25.01.2019 https //rm.coe.int/artificial-intelligence-and-data-protection-challenges-and-possible-re/168091f8a6 Indagine conoscitiva sui Big Data pubblicata il 10.2.2020 condotta in cooperazione tra Garante Privacy, Antitrust e AGCOM https //www.garanteprivacy.it/documents/10160/0/Indagine+conoscitiva+sui+Big+Data.pdf/58490808-c024-bf04-7e4e-e953b3d38a9a?version=1.0

L’EDPS paragrafo 38 osserva che la protezione dei diritti fondamentali potrebbe giustificare, in alcuni casi, non solo garanzie specifiche ma anche una chiara limitazione all'uso dell'IA dove alcuni usi della tecnologia siano evidentemente incompatibili con i diritti fondamentali o comunque quando non ne risultino chiari gli effetti. Secondo l'approccio al rischio sulla scorta del principio di precauzione europeo, in particolare quando l'impatto sugli individui e sulla società nel suo insieme non è stato ancora del tutto compreso, sarebbe opportuno fermarsi prima di iniziare il trattamento con IA e stabilire quindi un divieto temporaneo . Il Garante Privacy UE non si lascia sfuggire l’occasione di porre subito in pratica in questo senso il principio di precauzione e chiede una moratoria per l’utilizzo dei sistemi di identificazione biometrica da remoto sistemi di Remote Biometric Identification - RBI il cui impiego in spazi pubblici era stato fortemente caldeggiato per monitorare e tracciare la mappa dei contagi del coronavirus e prevenirne così la diffusione. Tali sistemi funzionano con la tecnologia IA definita computer vision e tramite telecamere installate in luoghi pubblici sono in grado di operare l'automazione del riconoscimento delle caratteristiche umane e non solo dei volti ma anche dell'andatura, delle impronte digitali, del DNA, della voce e di altri segnali biometrici o comportamentali. Nel parere viene citato un articolo scientifico in materia davvero impressionante Emotional Expressions Reconsidered Challenges to Inferring Emotion From Human Facial Movements , https //journals.sagepub.com/stoken/default+domain/10.1177%2F1529100619832930-FREE/pdf Le preoccupazioni espresse dal Garante Ue in merito a questi sistemi risultano più che condivisibili 64. Una volta installata l'infrastruttura a supporto di RBI, può essere facilmente utilizzata per altri scopi 'funzione creep' . Alcuni hanno recentemente affermato che i sistemi RBI potrebbero essere utilizzati per combattere la pandemia in corso in diversi modi, come ad esempio attraverso la misurazione del distanziamento sociale o dell'uso di maschere o controlli della temperatura quando le telecamere hanno termometri integrati . Alcune di queste nuove applicazioni potrebbero non cadere nell'ambito del GDPR, ma avrebbero comunque un effetto agghiacciante sullo stato democratico dell’Unione. Tali usi dell'intelligenza artificiale e tali funzioni dovrebbero pertanto essere adeguatamente affrontati in qualsiasi quadro normativo futuro sull'intelligenza artificiale . Inoltre segnala ancora l’EDPS paragrafo 65 anche nelle ipotesi in cui le tecnologie RBI non siano installate ai fini dell'identificazione, sollevano comunque seri problemi di privacy ad esempio il rilevamento di emozioni sul riconoscimento facciale in tempo reale può inferire i sentimenti degli individui si veda appunto Emotional Expressions Reconsidered Challenges to Inferring Emotion From Human Facial Movements , https //journals.sagepub.com/stoken/default+domain/10.1177%2F1529100619832930-FREE/pdf . Risulta altresì importante avere il quadro del contesto in cui tali sistemi dovrebbero essere impianti per 66. valutare se la tecnologia sia necessaria o proporzionale nella situazione rilevante in cui verrà distribuita . In virtu’ del criterio della partecipazione by default dei gruppi o delle comunità coinvolte dal trattamento risulta indispensabile acquisire il parere di questi interessati. Per alla nota 53 dell’Opinion 4/2020 si cita uno studio dell'Agenzia dell'Unione europea per i diritti fondamentali che ha dimostrato che oltre l'80% degli europei sono contrari alla condivisione dei loro dati facciali con le autorità Facial recognition technology fundamental rights considerations in the context of law enforcement FRA, 27.11.19, https //fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf . Alla luce di quanto osservato, l’EDPS conclude che una tale tecnologia non può essere attivata prima che sia stato aperto un dibattito pubblico e democratico sulla questione partecipazione by default e consiglia fortemente una moratoria fino al momento in cui l'UE e Gli Stati membri dispongano di tutte le garanzie appropriate, compresa una legislazione globale quadro in atto per garantire la proporzionalità delle rispettive tecnologie e sistemi per il caso d'uso specifico.

Alla luce di quanto osservato dall’EDPS in merito alla proposta di un nuovo enforcement privacy o meglio data protection per il settore IA, si comprende che l’approccio restrittivo della Commissione calibrato unicamente sul criterio dell’alto rischio non risulta soddisfacente né per le esigenze di garanzia dei diritti fondamentali delle persone né per l’ambito sociale. I sistemi intelligenti - anche quelli apparentemente più piccoli es. braccialetto intelligente - possono avere ripercussioni negative inizialmente non preventivate sullo stato democratico pensiamo all’identificazione biometrica da remoto e sul potere di mercato concentrazioni . Proprio per questo, il Garante Privacy UE ricorda alla Commissione che la DPIA in questi casi è già stabilita dal GDPR come obbligatoria e 40 si rammarica che il Libro Bianco non faccia menzione esplicitamente della DPIA . L’EDPS non vede il perché la Commissione non voglia applicare la procedura di DPIA già prevista e ben determinata nelle Linee-guida del Gruppo Articolo 29 in materia di valutazione di impatto sulla protezione dei dati WP248 https //www.garanteprivacy.it/regolamentoue/dpia#2 . Procedura - che essendo valida sia per i casi di sistemi IA ad alto rischio sia per tutti gli altri consente di adottare un approccio al rischio stratificato o modulare idoneo a coprire tutti i livelli di rischio dal più basso al più alto . L'EDPS fa notare, infatti, che l’art. 35 3 del GDPR prevede sempre l’adozione della DPIA in caso di sistemi di profilazione intelligente 41. La diffusione dei sistemi di intelligenza artificiale soddisfa molto probabilmente almeno uno dei criteri stabiliti nell'articolo 35 3 GDPR . L’art. 35, comma 3, GDPR così come esplicato nelle Linee Guida WP29 sulla valutazione di impatto emendate e adottate il 4 ottobre 2017 impone la DPIA è obbligatoria in tutti i casi in cui un trattamento può presentare un rischio elevato per i diritti e le libertà delle persone fisiche. Tra i criteri specifici segnalati dal Gruppo art. 29 emergono casi riportabili ai sistemi automatizzati IA - decisioni automatizzate che producono significativi effetti giuridici es assunzioni, concessione di prestiti, stipula di assicurazioni - combinazione o raffronto di insiemi di dati derivanti da due o più trattamenti svolti per diverse finalità e/o da titolari distinti, secondo modalità che esulano dal consenso iniziale come avviene, ad esempio, con i Big Data - utilizzi innovativi o applicazione di nuove soluzioni tecnologiche o organizzative es riconoscimento facciale, device IoT, ecc. . Inoltre osserva l’EDPS paragrafo 41 l'articolo 35, paragrafo 4, del GDPR consente alle Autorità di controllo di pubblicare un elenco del tipo di operazioni di trattamento soggette alla procedura DPIA. Le Authorities della Polonia, Italia, Grecia, Austria e Repubblica Ceca richiedono la DPIA per alcuni o tutti gli usi dell'IA. In Polonia, ad esempio, è richiesta una DPIA per la valutazione della solvibilità con l'uso di algoritmi di intelligenza artificiale. L’EDPS sottolinea paragrafo 44 che se la valutazione d'impatto sulla protezione dei dati mostra che il trattamento comporterebbe un rischio elevato per i diritti e le libertà degli interessati, salvo che il titolare o il responsabile del trattamento non adottino misure per mitigare il rischio, vi è l'obbligo di consultare l’Autorità di vigilanza ai sensi dell'articolo 36, paragrafo 1, del GDPR. Peraltro, anche nelle Linee Guida della Convenzione 108 si prevede la possibilità per i titolari e i responsabili del trattamento di ricorrere all’ausilio del Garante competente per ottenere consigli o addirittura per ottenere il modello di DPIA specifico per il settore IA trattato. In conclusione, l’EDPS suggerisce che un futuro quadro giuridico IA dovrebbe stabilire il requisito della valutazione di impatto per qualsiasi distribuzione di sistemi di intelligenza artificiale.

Il Garante Privacy UE segnala anche un altro aspetto dell’approccio al rischio prospettato nel Libro Bianco esso risulta inesistente per tutti gli stakeholders IA che non rientrano nella categoria dei trattamenti ad alto rischio . La Commissione per questi imprenditori in sostanza non prevede nulla salvo il ricorso su base volontaristica a dei codici di condotta o a delle certificazioni. Bene la deregulation per favorire il mercato IA però non deve tradursi in uno smantellamento del GDPR. Inoltre, osserva l’EDPS che i codici di condotta o le certificazioni una tantum non hanno significato sotto il profilo della gestione del rischio IA a causa della natura dinamica dei sistemi intelligenti che devono essere partecipati, co-realizzati, monitorati, revisionati, modificati per il loro intero ciclo di vita 59. si propone uno schema di etichettatura volontaria per quei sistemi di intelligenza artificiale non classificati come alto rischio. Questa etichetta verrebbe utilizzata per coloro che si impegnano a soddisfare i requisiti normativi nella sezione 5.D o una serie specifica di requisiti simili appositamente stabiliti per gli scopi di tale schema di etichettatura. Tuttavia, gli standard AI non consentano questo perché gli sviluppatori delle applicazioni AI verificano costantemente la loro conformità. Senza tali standard, il valore del sistema di etichettatura volontaria sarebbe limitato nel migliore dei casi .

In materia di mercato digitale intelligente, Commissione e Garante non divergono soltanto nella visione del quadro normativo di fondo ma anche nella concezione dell’approccio al rischio restrittiva e basata sul criterio di alto rischio quella della Commissione e stratificata e modulare quella del Garante che - riferendosi alle proposte del Libro Bianco - osserva 35. Questo approccio non riflette l'approccio precauzionale adottato dall'Unione europea nel 2005 L'approccio adottato nel GDPR è anche basato sul rischio, ma, soprattutto, è stratificato , mentre il Libro bianco AI sembra assumere un approccio o tutto o niente Le regole del GDPR si applicano a condizione che non esista un 'rischio-zero' Ogni operazione di trattamento dei dati personali comporta rischi anche se forse minimi , in particolare l'elaborazione automatizzata e soprattutto attraverso le nuove tecnologie. Pertanto, vi è un certo numero di obblighi che dovrebbero essere soddisfatti in ogni caso per tutte le attività di elaborazione. Inoltre, quando i rischi salgono alto rischio , aumentano anche gli obblighi. Contrariamente a tale approccio, il Libro bianco sembra proporre obblighi aggiuntivi aggiuntivi rispetto a qualsiasi obbligo già applicabile solo per un'intelligenza artificiale ad alto rischio e se i rischi diminuiscono, gli obblighi aggiunti scompaiono. 36. Il parere del GEPD è pertanto che i rischi e i danni che non soddisfano i requisiti per essere considerati ad alto rischio devono comunque essere evitati o mitigati , per quanto possibile. A tal fine, il GEPD suggerisce che se la Commissione dovesse presentare una nuova regolamentazione-quadro specifica per l'IA , un certo numero di garanzie ragionevoli dovrebbe applicarsi a tutte le applicazioni AI indipendentemente dal livello di rischio , come ad esempio l'adozione di misure tecniche e organizzative compresa la documentazione essendo pienamente trasparente sugli obiettivi, sull'uso e sulla progettazione di sistemi algoritmici garantire la solidità del sistema di IA o attuare ed essere trasparenti sui meccanismi disponibili di responsabilità, riparazione e supervisione indipendente . Un’altra osservazione dell’EDPS sull’approccio risk based del Libro Bianco attiene al raggio di azione dello stesso la Commissione si ferma a quello individuale e ai casi eccezionali mentre invece dovrebbe aprire ad un campo applicativo molto più ampio esteso ai gruppi, alle identita’ collettive, alle comunità. 30. Anche la nozione di rischio di impatto del Libro bianco sembra definita in modo troppo restrittivo. Oltre al impatto sulle parti interessate , il GEPD ritiene che la valutazione del livello di rischio di un determinato uso dell'IA dovrebbe anche basarsi su considerazioni sociali più ampie , tra cui l'impatto sul processo democratico, sul giusto processo e sullo stato di diritto, sull'interesse pubblico, sul potenziale per un aumento della sorveglianza generale, dell'ambiente e sulle concentrazioni di potere di mercato .

La Commissione UE si sta preparando a sfruttare al meglio la nuova ondata informativa prodotta dall’uso massivo dell’IA. Deve avviare la seconda fase del modello UE di IA basato sull’edge computing e sui dispositivi intelligenti. Si tratta di un nuovo mercato, di un’opportunità che l’Europa non intende mancare. Pertanto, come è stato fatto per la promozione della nascita del mercato digitale grazie alla deregulation sulla responsabilità e sugli oneri degli ISPs Internet Service Providers così anche adesso viene incentivato il mercato digitale intelligente grazie alla deregulation. Deregulation che tradotta in pratica significa via libera a tutte le forme di prodotti e servizi di IA, senza problemi di vincoli normativi nè di responsabilità salvo i casi di alto rischio . Nel nuovo legal framework europeo sull’IA salvo i casi di alto rischio tutto il resto è deregolamentato e affidato alla buona volontà degli esercenti che possono scegliere di aderire o meno a dei codici di condotta o a delle certificazioni. Il Garante Privacy UE interpellato sull’opportunità di un eventuale enforcement privacy da aggiungere al nuovo legal framework sull’IA dimostra di non condividere la visione dell’Esecutivo riaffermando l’applicabilità del GDRP 2016/679. Il Regolamento UE sulla Data Protection sottolinea l’EDPS è neutro rispetto alle tecnologie del momento e puo’ essere applicato sia per la piattaforma social sia per l’assistenza sanitaria intelligente a distanza mobile health o mHealth 16. Il quadro giuridico europeo per la protezione dei dati è neutrale sotto il profilo tecnologico e non costituisce un ostacolo per l'adozione riuscita di nuove tecnologie, in particolare l'IA. Al contrario, intendeva favorire l'applicazione di qualsiasi tecnologia al trattamento dei dati personali nel pieno rispetto dei valori e dei diritti fondamentali europei . Il Garante Privacy UE osserva che la proposta di un enforcement privacy nell’eventuale nuovo quadro normativo sull’Intelligenza Artificiale risulta del tutto inutile perchè 24. In relazione ai rischi posti alle persone interessate da qualsiasi domanda di IA che elabora dati personali, tale regolamentazione complementare appare superflua , poiché l'approccio basato sul rischio già incorporato negli articoli 32 sicurezza del trattamento e 35 Impatto sulla protezione dei dati La valutazione del regolamento generale sulla protezione dei dati è senza soluzione di continuità e deve essere adattata alle esigenze specifiche di ogni applicazione. Nel febbraio 2020, l'EDPB ha concluso che è prematuro rivedere il testo legislativo in questo momento Contributo dell'EDPB alla valutazione del GDPR ai sensi dell'articolo 97 . Inoltre, l’EDPS osserva che la deregulation proposta dal Libro Bianco per favorire il mercato digitale intelligente potrebbe risultare un aggravio sproporzionato a carico dei diritti fondamentali della persona rispetto alla libertà di impresa degli stakeholders del settore IA 37. Mentre la Commissione nel suo approccio all'IA mira a non essere eccessivamente prescrittiva , così al fine di evitare di creare un onere sproporzionato, in particolare per le PMI p17 , il risultato di ciò potrebbe creare un onere sproporzionato sui diritti fondamentali delle persone e interessi invece. Il GEPD suggerisce di trarre ispirazione da un dibattito analogo a quello avvenuto durante le discussioni e le negoziazioni del GDPR, ed è dell'opinione che l'approccio stratificato del GDPR crei un migliore equilibrio tra oneri e benefici .

Tutto questo entusiasmo nel potenziale magico dell’IA non è condiviso dal Garante Privacy UE EDPS che, nella propria Opinion 4/2020 sul Libro Bianco, esprime scetticismo sottolineando che l’IA non è il proiettile d’argento . Tutta questa fiducia nell’IA non è giustificata pensiamo al robot che sbaglia la diagnosi del tumore alla pelle o all’auto driverless che investe l’handicappato in carrozzina perchè la foto di questa categoria di persone non era stata inclusa nei dati dell’addestramento di computer vision. I sistemi intelligenti sono mezzi tecnologici che si aggiungono a tanti altri già vagliati dalle Autorità di controllo alla luce del GDPR. Pertanto, non serve un enforcement privacy nell’elaborando legal framework europeo sull’IA. Occorre invece approfondire e adeguare il sistema giuridico UE esistente sulla data protection a queste nuove tecnologie . A tal fine l’EDPS indica in particolare la strada interpretativa per l’ approccio al rischio nei sistemi IA e chiede una moratoria per l’attivazione degli apparati di identificazione biometrica da remoto evidenziandone la forte pericolosità non solo per la privacy individuale ma anche per lo stato democratico della nostra società. In merito all’ accesso ai dati più vicino assicurato dall’edge computing avverte di non abbassare la guardia e tenere sempre presente il principio dello stabilimento inaugurato per la data protection da CGUE Costeja/Google 13.05.2014 secondo cui i gestori di servizi digitali extra UE devono sottostare al GDPR. A maggior ragione adesso che la sentenza della CGUE Schrems II del 16 luglio 2020 ha di fatto blindato tutti i patrimoni informativi digitali europei. Il Garante UE suggerisce di trattare caso per caso la questione del rapporto tra Intelligenza Artificiale e Gruppi di soggetti vulnerabili bambini, anziani, persone con disabilità, minoranze etniche o gruppi storicamente emarginati, donne, comunità LGBTQIA, lavoratori e altri a rischio esclusione . Nel proseguo ci occuperemo dunque di trattare specificatamente gli argomenti toccati dall’Opinion 4/2020 così come sopra sintetizzati. All’esito di tutta l’analisi condotta sul Libro Bianco della Commissione sull’IA, l’EDPS suggerisce per un eventuale futuro legal framework UE sull’IA le seguenti raccomandazioni Conclusioni, cap.6, par. 79 e 80 - si applichi sia agli Stati membri dell'UE che alle istituzioni, uffici, organi e agenzie dell'UE - si applichi sia agli Stati membri dell'UE che agli Stati Extra UE stabiliti nell’unione - sia progettato per proteggere da qualsiasi impatto negativo, non solo sugli individui, ma anche su comunità e società nel loro insieme - proponga uno schema di classificazione dei rischi più strutturato e ricco di sfaccettature, garantendo che qualsiasi significativo potenziale danno causato dalle applicazioni AI venga accompagnato da adeguate misure di mitigazione - includa una valutazione d'impatto che definisca chiaramente le lacune normative che intende colmare - eviti la sovrapposizione di diverse autorità di vigilanza e includa un meccanismo di cooperazione.

La differenza tra la gestione del rischio nei sistemi informativi di individui e la gestione del rischio nei sistemi informativi massivi Big Data, dati aggregati, dati anonimi come abbiamo già detto - consiste nella figura dell’interessato con i Big Data i soggetti di riferimento sono i gruppi, le comunità, le identità collettive che potrebbero subire effetti indiretti negativi dal trattamento intelligente . Al riguardo risulta illuminante il Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies [1] del 25 gennaio 2019, testo su cui si fondano le Linee Guida IA, in cui si sostiene a pag. 13 Il nuovo elemento nella valutazione del rischio riguarda la gamma di interessi tutelati e diritti protetta. La valutazione riguarda diritti che vanno oltre la tradizionale protezione dei dati, come il diritto a non discriminazione 35 [Barocas & amp Selbsr, 2016], nonché rispetto dei valori sociali ed etici [Comitato economico e sociale europeo, 2017 AI Now Institute, 2017, 34-35 Al fine di raggiungere sistemi etici di intelligenza artificiale in cui vengono affrontate le loro implicazioni più ampie, ci devono essere cambiamenti istituzionali per rendere responsabile il potere Accedi ora, 2018] . La gestione del rischio per i gruppi dev’essere specifica perché ogni comunità o identità collettiva si ancora a un centro di interessi rappresentativo dei propri valori etici e sociali I valori etici e sociali sono necessariamente specifici del contesto e differiscono da una comunità all'altra [World Economic Forum, 2018, 12], rendendo più difficile identificare un punto di riferimento per questo tipo di valutazione del rischio. Questo punto è chiaramente affrontato nella prima sezione degli orientamenti sui Big Data [Consiglio d'Europa, 2017], che esorta sia i titolari che i responsabili del trattamento dei dati a tenere adeguatamente conto del probabile impatto dell'elaborazione dei Big Data prevista e sue più ampie implicazioni etiche e sociali , al fine di salvaguardare i diritti umani e le libertà fondamentali, alla luce della Convenzione 108 cit. Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies , p.13 . Alla luce di quanto detto, la questione dev’essere affrontata da comitati di esperti, da comitati etici, dagli stessi rappresentanti dei gruppi o delle comunità a rischio. In un contesto siffatto, oltre alla privacy by default e by design occorre anche la partecipazione by default e by design di tutti i soggetti coinvolti dal trattamento intelligente a partire dai possibili danneggiati, esperti, studiosi di etica, fino agli stessi stakeholders. Prima ancora di partire con il progetto si esige la partecipazione by default e tutti insieme si contribuisce all’elaborazione del sistema IA by design o co-design A. Mantelero al fine di gestire al meglio il rischio di effetti pregiudizievoli indiretti. Situazioni simili possono essere fronteggiate ancora più a monte occupandosi della qualità dei dataset stimandone preventivamente - a seconda della finalità del trattamento IA - gli eventuali effetti pregiudizievoli. In questo senso di e’ pensato a delle certificazioni ad hoc dei dataset che illustrino la tipologia dei dati, la provenienza, l’attitudine a produrre effetti distorti, le procedure di tracciabilità del processo decisionale. Nei casi di alto rischio il titolare e i responsabili del trattamento come previsto dal GDPR - possono richiedere ausilio all’Autorità di controllo che all’occorrenza potrà elaborare delle procedure di DPIA ad hoc. Tutto il sistema tende a rendere i trattamenti intelligenti meno incomprensibili e ad agevolarne le possibilità di controllo. In questo senso si invoca la trasparenza del processo decisionale dell’IA contro l’opacità tipica delle reti neurali cd. effetto black box . Trasparenza favorita dalla partecipazione by default e by design che a propria volta consente la catena di sorveglianza dinamica per tutto il ciclo di vita del sistema IA. Il ciclo di vita del sistema IA essendo accompagnato permanentemente e costantemente da partecipazione, trasparenza, sorveglianza, diventa più affidabile perché verificabile, monitorabile, modificabile e revisionabile in qualsiasi momento. L’affidabilità del sistema IA si guadagna la fiducia della società civile, promuovendone il mercato digitale intelligente e l’ulteriore sviluppo economico. Proprio a questa fiducia nei sistemi IA e allo sviluppo di un mercato digitale intelligente mira il Libro Bianco della Commissione UE sull’Intelligenza Artificiale che addirittura giudica i tempi maturi per un’applicazione nei settori dell’assistenza sanitaria e dei trasporti. Rapporto del Prof. Alessandro Mantelero Artificial Intelligence and Data Protection Challenges and Possible Remedies https //rm.coe.int/artificial-intelligence-and-data-protection-challenges-and-possible-re/168091f8a6

Il principio di precauzione, stabilito in nuce dall’art. 191 del TFUE, campeggia nella normativa e nella giurisprudenza UE nell’ambito della responsabilità da attività pericolosa . Portato alle estreme conseguenze, si tratta di un approccio alla gestione del rischio piuttosto tranchant se il trattamento può causare ricadute negative, si proibisce. Il risultato negativo secco di tale schema logico implicherebbe l’impossibilità di condurre la maggior parte delle attività e paralizzerebbe il sistema economico digitale per il quale la circolazione dei dati e dei Big Data è essenziale. Grazie al temperamento introdotto dal principio di proporzionalità risulta possibile condurre anche i trattamenti algoritmici modulando le misure preventive a seconda del grado di rischio piu’ o meno alto. L’equilibrio dinamico tra precauzione e proporzionalità impone il continuo monitoraggio del grado di interferenza dell’IA al fine di mantenerlo sotto controllo. Laddove vi siano casi ad altissimo impatto privacy o data protection sia le Linee Guida della Convenzione 108 sia l’EDPS raccomandano la limitazione dell’uso dell’IA o addirittura la rinuncia al trattamento cosiddette ipotesi di rischio zero . Sebbene in materia di scelta tra vaccini, esprime molto bene il concetto Cons. Stato, sez. III, n. 6655 del 3.10.2019 4.6. Nel bilanciamento delle più opportune iniziative di contenimento del rischio, la scelta del c.d. rischio zero entra in potenziale tensione con il principio di proporzionalità, il quale impone misure congrue rispetto al livello prescelto di protezione ed una conseguente analisi dei vantaggi e degli oneri dalle stesse derivanti dunque, non è sempre vero che un divieto totale od un intervento di contrasto radicale costituiscano una risposta proporzionale al rischio potenziale , potendosi configurare situazioni e contesti specifici che rendono una tale strategia inopportuna, inutilmente dispendiosa, se non sostanzialmente improduttiva. In siffatte ipotesi, per coniugare in modo bilanciato esigenze di precauzione e di proporzionalità, la Commissione suggerisce di modulare l’azione cautelativa in relazione alla evoluzione dei suoi risultati, sottoponendo le misure adottate ad un’opera di controllo e di revisione, alla luce dei nuovi dati scientifici par. 6 e 6.3.5 . Una delle dirette espressioni del bilanciamento tra precauzione e proporzionalità come detto sopra - è il criterio di limitazione dell’utilizzo dell’IA . Poniamo che esista un sistema intelligente che delibera in via autonoma delle decisioni. Poniamo altresì che tali decisioni non siano immediatamente eseguite perché sottoposte preventivamente al vaglio umano. Poniamo inoltre che l’azienda o la pubblica amministrazione licenziataria del software intelligente ne consideri l’estrema attendibilità. Sarà agevole per il soggetto umano discostarsi dalla schiacciante logica algoritmica? Purtroppo, il mito dell’infallibilità della mente artificiale condiziona pesantemente la volontà del decisore umano tenuto ove dissenziente a una probatio diabolica contro l’algoritmo. In situazioni simili, viene raccomandata la limitazione dell’utilizzo dell’IA favorendo la libertà del decisore umano. Il principio di precauzione implica l’applicazione della fattispecie della responsabilità da attività pericolosa avulsa dalla colpa e interamente incentrata sull’adozione delle misure preventive adeguate. Si tratta appunto della responsabilità intesa nel senso di accountability tipica del GDPR e riconfermata dalle Linee Guida e dal Parere dell’EDPS anche per i trattamenti a mezzo IA. È sempre lo schema basato sulla gestione del rischio. La differenza tra la gestione del rischio nei sistemi informativi di individui e la gestione del rischio nei sistemi informativi massivi Big Data, dati aggregati, dati anonimi consiste nella figura dell’ interessato con i Big Data i soggetti di riferimento sono i gruppi, le comunità, le identità collettive che potrebbero subire effetti indiretti negativi dal trattamento intelligente .