Verso l’AI ACT: dieci temi su cui riflettere

L’anno che si sta chiudendo è stato definito, ovunque nel mondo, come quello “dell’intelligenza artificiale”. Sta volgendo al termine, per di più, con un passo politico e normativo importante, compiuto a Bruxelles proprio nelle scorse ore sembra che nel trilogo in corso tra Parlamento, Consiglio e Commissione si siano stati finalmente sciolti i nodi interpretativi più critici e si siano appianate le posizioni più contrastanti.

Si dovrebbe passare, ora, alla discussione in dettaglio, riga per riga, del testo finale di quello che mira a essere uno dei primi esempi al mondo di regolamentazione di questa incredibile, e potentissima, tecnologia. L’Europa, in particolare, si vuole presentare come un vero e proprio esempio da seguire ha elaborato, in più di tre anni di lavoro, un testo assai complesso, che ancora deve essere ben limato ma che già ha sollevato un dibattito molto vivace e non poche polemiche. L’Unione Europea ha fatto la scelta, per alcuni radicale, di mettere al centro l’idea di “pericolo” della AI, con un elenco di obblighi specifici soprattutto per le imprese che svilupperanno, o importeranno, sistemi di intelligenza artificiale in Europa. Ciò dovrebbe permettere di far partire, finalmente, il mercato continentale e di cercare di chiudere in bellezza, nel 2030, quel “decennio digitale” che forniva tante aspettative ma che obiettivamente tra pandemia, crisi economica e guerre non è partito al meglio. In attesa del testo definitivo , che a seconda della speditezza dei lavori potrà arrivare tra alcune settimane o mesi, e che ci consentirà un commento più puntuale, può essere utile, soprattutto per chi si avvicina ora a questi temi, iniziare a individuare i punti di interesse per il professionista del diritto che sarà necessario affrontare per arrivare pronti al momento dell’entrata in vigore del testo. Europa vs. resto del Mondo Il primo aspetto interessante, per il giurista, con riferimento al quadro complessivo, è la ferma volontà dell’Europa di cercare di mantenere “sotto controllo”, da un punto di vista giuridico, una tecnologia fluida e spinosa come l ’intelligenza artificiale con un approccio differente da quello adottato in altre parti del mondo. Diventa, allora, assolutamente indispensabile comprendere il quadro internazionale su ciò che stanno facendo le altre nazioni e, in particolare, sulle strategie di Stati Uniti d’America e Cina, potenze di riferimento nello sviluppo di sistemi di intelligenza artificiale. Il giurista potrà intravedere, tra gli altri, approcci politici e giuridici palesemente “hands-off” ossia “non tocchiamo assolutamente, da un punto di vista normativo, l’intelligenza artificiale perché dobbiamo garantirne il maggior sviluppo possibile nei prossimi anni, e il diritto lo potrebbe frenare” , approcci di “autoregolamentazione” e di fiducia nei confronti delle piattaforme “lasciamo fare ai produttori di questi sistemi, sperando che adottino un approccio etico, e non soltanto mirante al profitto o al controllo” , scelte di “co-regolamentazione” lo Stato crea una “griglia”, ampia, di regole e principi di base, dentro la quale operano le società con possibilità di personalizzare il loro approccio a seconda del loro business o, come è successo in Europa, normative ben specifiche e stringenti. Occorre, allora, essere consapevoli, in primis , che le scelte politiche e di tutela dei diritti delle persone condizioneranno, mai come in questo momento storico, il futuro della tecnologia . Il primo problema, in sintesi, è di scelte politiche. E nessuno può sapere, ora, quali saranno le più corrette per il futuro. Diritto vs. evoluzione tecnologica Chi si occupa da tempi non sospetti di informatica giuridica e di diritto delle nuove tecnologie convive ormai, da decenni, con una sensazione costante di “arrivare in ritardo” l’ evoluzione tecnologica è più rapida dei processi necessari per creare diritto e norme. Mai, però, questo divario temporale è apparso così evidente come con l’intelligenza artificiale, in grado di presentare prodotti che in pochi giorni diventano fenomeni mondiali e sono utilizzati ovunque, senza regole. Il professionista del diritto dovrebbe, allora, riflettere sui tempi che avrà questa regolamentazione, se l’attuazione sarà differita per differenti parti del testo e se quando sarà attuata, tra 12 o 24 mesi, sarà ancora utile e, soprattutto, efficace. Già tra il 2020 e oggi, quando era in discussione il regolamento, l’avvento di chatGPT ha fatto mutare il quadro e ha richiesto nuovi negoziati, generando non piccoli contrasti interpretativi e politici. Il rischio, in altre parole, è di avere una normativa già “vecchia” e superata nel momento in cui dovrà essere attuata. Benchmark della compliance troppo alti vs. benchmark troppo bassi Le numerose regole – meglio definirli “obblighi” – che dovranno essere rispettate per far sì che l’intelligenza artificiale “all’europea” sia ammessa nel nostro mercato, sono troppo stringenti, sono corrette o sono poco stringenti e, quindi, inutili? Alcuni commentatori, si noti, hanno già definito il regolamento come un regolamento NON sull’intelligenza artificiale ma contro le AZIENDE che producono intelligenza artificiale. Se le regole si riveleranno troppo stringenti, si tuteleranno maggiormente i cittadini e i diritti delle persone ma si soffocherà, al contempo, il mercato che sta per nascere. Se saranno, al contrario, regole troppo lasche, si violeranno sistematicamente i diritti delle persone in un fiorire di aziende e di prodotti. L’ideale, ça va sans dire , sarebbe il raggiungimento di un non facile equilibrio che possa mettere al centro la t utela della persona e che consenta, al contempo, lo sviluppo di questa tecnologia ancora nuova per il nostro Continente. Qui il ruolo del professionista del diritto sarà importante dovrà, per ogni realtà imprenditoriale, valutare il percorso che possa portare a una conformità alle norme nel rispetto dei costi di attuazione della compliance stessa e senza generare inutile “burocrazia” ma prevedendo, al contrario, un rispetto effettivo dei diritti. Trasparenza vs. oscurità Nel testo provvisorio del regolamento si parla, in numerosi passaggi, di “trasparenza” che i sistemi di intelligenza artificiale dovranno garantire trasparenza nei confronti dell’autorità che governerà il sistema e che dovrà conoscere, e controllare, i prodotti, e trasparenza anche nei confronti del consumatore. Più, però, i sistemi saranno sofisticati, più tracciabilità delle operazioni e trasparenza saranno complesse, se non impossibili, da garantire. Molti scienziati già hanno difficoltà a spiegare i risultati di alcuni prodotti da loro sviluppati, o a ripercorrere all’indietro il percorso fatto, quando analizzano l’output dei sistemi. Il futuro sarà di black box, quindi, o di piena visibilità di ciò che succede dentro a questi sistemi? La lotta per la trasparenza sarà molto interessante, e coinvolgerà anche aspetti innovativi della professione quali il legal design e la necessità di chiarire con termini semplici, e d’impatto, nozioni giuridiche complesse su materie ancora più complesse. Approccio basato sul pericolo della AI vs. altri approcci La scelta fatta dal legislatore dell’Unione Europea è stata quella basata sui rischi che pongono i sistemi di AI, ossia il prevedere comunque che si tratti di una tecnologia capace di generare pericoli di diverso valore e grandezza nei confronti dei diritti e delle libertà delle persone. Ciò ha portato, ad esempio, a collocare in secondo piano la persona e i suoi diritti, concentrandosi su ciò che devono fare le aziende per limitare o mitigare i rischi e non sui diritti che le persone potranno esercitare. In questo caso sarà interessante valutare quali saranno le modalità di esercizio dei diritti da parte delle persone e dei loro avvocati , ricavando dalla normativa principale, “al contrario”, i diritti che nascono dagli obblighi di adempimento in capo alle imprese. Riconoscimento facciale vs. tutela del viso delle persone La battaglia più vivace si è giocata, e si giocherà anche in futuro, sui dati biometrici e sui visi delle persone è sufficiente osservare quello che sta avvenendo nella guerra in Medio Oriente e come viene usata la tecnologia per il riconoscimento dei volti da Israele e, in generale, in ambito bellico. La potenza di questi sistemi consente, sia in ambito di marketing, sia alle forze dell’ordine, un controllo capillare di tutte le persone e una loro catalogazione . Vi è, allora, l’ombra dell’avvento del sistema cinese di catalogazione sociale e di cittadinanza a punti, che si vuole evitare, ma, al contempo, vi è la consapevolezza dell’utilità di tali sistemi in un momento di crisi, di minacce terroristiche e, in sintesi, in un mondo in guerra. Vero vs. falso Una delle maggiori potenzialità della AI è di creare contenuti falsi che sembrano veri. Il deepfake non è solo un problema di indicazione chiara di ciò che è falso trasparenza , ma è uno strumento che ha la capacità di mettere in crisi, sino a smantellare, interi sistemi giudiziari con la prevalenza del falso rispetto al vero o la necessità, ogni volta, di provare in tribunale ciò che è vero con conseguente aumento di tempo e di costi . La parte del regolamento che riguarda l’uso della AI nell’ambito del processo, delle investigazioni e del sistema-giustizia dovrà tenere in conto questo aspetto critico che si sta delineando all’orizzonte. Intelligenza artificiale vs. supervisione umana Il prevedere, comunque, una supervisione umana, quale extrema ratio per intervenire nel caso qualcosa dovesse andare storto, è un’ipotesi molto suggestiva ma potrebbe non essere applicabile in molti contesti concreti, dove vi sono ormai miliardi di dispositivi che funzionano mossi da AI . Si pensi al mondo dell’Internet delle Cose, ormai diventato “Internet di Tutto”. Avvocati tradizionali vs. nuovi avvocati L’avvento del nuovo regolamento porterà originali richieste di consulenza che richiederanno specifiche competenze. Le prime richieste riguarderanno, probabilmente, la checklist degli adempimenti sarà necessario comprendere procedure quali analisi del rischio e mitigazione degli impatti, redazione di informative e documenti per la trasparenza, documenti da consegnare alle autorità ma, anche, istruzioni per chi opera con tali sistemi e un controllo costante della conformità. Strong enforcement e sanzioni vs. “periodo di grazia” Tutti i regolamenti complessi, si veda il GDPR, hanno impiegato qualche anno per “scaldare” i motori. Interessante sarà, allora, vedere il periodo reale di attuazione dei principi in un contesto, si diceva, dove l’ evoluzione tecnologica è rapidissima, e se le autorità decideranno di adottare un approccio “soft” o partiranno subito con le sanzioni. Oggi, come è noto, sono state le autorità per la protezione dei dati a prendere in mano, in diversi Paesi, l’aspetto del blocco di questi sistemi e, persino, quello sanzionatorio sarà interessante osservare come le competenze si fonderanno, o si affiancheranno , con quelle di altre autorità senza, si spera, generare conflitti tra le varie autorità e agenzie.