I sistemi di AI basati sui recenti Large Language model (LLM) rappresentano lo stato dell’arte nello sviluppo di algoritmi capaci di simulare il processo di elaborazione caratteristico dell’agire umano. Attraverso i meccanismi delle c.d. “reti neurali” (artificial neural network, ANN), le AI generative riescono a processare un’enorme mole di dati in un ristretto lasso di tempo, altamente compatibile con le esigenze di celerità delle dinamiche relazionali, nonché sufficientemente accurato da stimolare la sensazione di una risposta articolata e consapevole nella grande maggioranze dei destinatari.
Lo scetticismo normativo di regolatori ed operatori di settore È lo stesso regolatore europeo, che con il recente tentativo di imbrigliare le criticità legate all’uso dell’intelligenza artificiale ci mostra quanto sia pervasivo e potenzialmente sconfinato il potenziale applicativo laddove per esempio, al Considerando n. 99 del Regolamento 2024/1689 del 13 giugno 2024, c.d. AI Act, il quale ha introdotto regole armonizzate sull’intelligenza artificiale, i grandi modelli generativi sono definiti come «un tipico esempio di modello di AI per finalità generali, dato che consentono una generazione flessibile di contenuti, ad esempio sotto forma di testo, audio, immagini o video, che possono prontamente rispondere a un’ampia gamma di compiti distinti». ChatGPT, in tal senso, rappresenta in modo abbastanza emblematico le caratteristiche richieste dal mercato affinché, un prodotto innovativo ed appena reso disponibile, riesce immediatamente ad incontrare le esigenze dell’utenza media in una esplosione di entusiasmo e sperimentazione in ogni contesto immaginabile. La caratteristica principale di tali software è quella di poter generare qualsiasi tipo di risposta attraverso l’elaborazione di enormi moli di dati costituite da immagini, video, audio, testi, per la maggior parte inserite costantemente in rete dall’utenza di riferimento, rendendo disponibile al fruitore del servizio una conoscenza quasi enciclopedica e totale, una babele semantica di facile accesso per chiunque abbia un minimo di dimestichezza o cultura informatica. Il Prof. Manes, l’ha, per l’appunto definito “oracolo algoritmico”. In effetti, ogni attività potrebbe essere coinvolta da un simile processo di automatismi generativi, ma le più consistenti criticità si mostrano in tutto il loro potenziale dirimente quando vengono coinvolti gli aspetti più delicati dell’essere umano, quando si maneggiano campi come la tutela dei diritti fondamentali della persona, mettendo in crisi sistemi complessi quali la giustizia, fatto essenzialmente di pesi e contrappesi in equilibrio precario, in cui la delega a processi automatizzati potrebbe sconvolgere gli assunti di riferimento, creando vulnerabilità difficilmente rimediabili, senza una visione complessiva e raziocinante del contesto. Esperienze d’oltreoceano hanno mostrato un significativo grado di tolleranza e flessibilità rispetto ad algoritmi decisionali autonomi, mentre il regolatore europeo, al contrario, si è mostrato da subito restio alla delega totale all’AI nel sistema della giustizia, aprendo, però, alla possibilità di un sopporto esterno dei diversi modelli nella valutazione degli elementi fattuali, sempre sotto un rigido ed attento controllo umano. Il conseguente apporto normativo del legislatore nazionale, già orientato nel suo disegno iniziale alla fonte di rango superiore europea ed ai diversi schemi di implementazione tecnici degli ultimi anni, dimostra una forte sensibilità al tema, soprattutto nell’ottica di una mitigazione di fattori distorsivi dell’ordine democratico. Nella stragrande maggioranza dei casi già sperimentati si è trattato perlopiù di sistemi di risk assessment, mentre, per quanto riguarda le ipotesi di delega decisionale chiamati automated decision sistems, i pochi casi noti riguardano esperienza circoscritte e legate al contesto dei conteziosi in ambito civilistico, tra cui alcune esperienze Estoni per la definizione di cause civili minori o Le Corti cinesi delegate all’AI le cui competenze hanno riguardato fino ad ora controversie sulla proprietà intellettuale, il commercio e contestazioni ai cittadini su comportamenti confliggenti con le rigide regole di controllo amministrativo e della navigazione in rete. Si rende necessario, pertanto, anche alla luce delle primordiali esperienze autoctone e delle sperimentazioni in corso di accademie, università ed istituzioni preposte, valutare i fattori critici su cui è possibile intervenire ed i potenziali benefici alla velocizzazione del processo giurisdizionale mediante l’integrazione con applicativi evoluti di AI, senza compromettere, però, la tenuta dei principi fondamentali a tutela dell’individuo nei sistemi democratici, garantendo il giusto grado di innovazione tecnologica. L’ambizione dei sistemi di AI di poter sostituire gli operatori del diritto o diventarne affidabili assistenti, deve essere messa costantemente alla prova dei fatti, proprio come in un regolare processo delle parti, pertanto, è assai utile analizzare alcuni esperimenti concreti in cui è stata testata la preparazione e la capacità tecnica degli algoritmi in questione. Mentre non esiste una definizione comunemente accettata di intelligenza artificiale, l’unione europea, infatti, già nella sua Carta etica presentata dall’organo di ricerca della Commissione nel 2018, aveva sollevato il problema della genericità della terminologia per cui si affiancano concetti come apprendimento, ambiento e comportamenti intelligenti degli algoritmi, è solo con l’introduzione della regolamentazione dell’AI Act che si assiste un primo tentativo definitorio più sistemico, laddove all’articolo 3 si specifica che si tratta di «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali». Le notevoli criticità derivanti dagli usi concreti E, allora, diviene giusto chiedersi, ma nel caso concreto, come funziona esattamente una simile tecnologia e, soprattutto qual è il suo grado di affidabilità e precisone? Ecco, in soccorso del giudizio di valutazione accorrono alcuni casi giunti all’attenzione degli addetti ai lavori proprio in ragione del loro carattere emblematico ed esplicativo delle criticità in gioco e, a giudicare dai risultati finali, le prospettive sulla qualità complessiva dei sistemi testati nei casi specifici non sembrano essere molto rassicuranti, lasciando intravedere un oceano di dubbi e riserve sul legittimo affidamento a tecnologie miracoliste ed onniscienti. Tanto per iniziare, già lo stesso software, posto dinanzi alla domanda sui meccanismi alla base del suo funzionamento non lesina tentennamenti ed accenni a possibili esiti fuorvianti ed incerti dei suoi risultati o output e, infatti, nonostante lo scopo primario dei sistemi di AI generativa sia quello di rispondere a qualsiasi tipo di domande ispirandosi al cervello umano, sfruttando gli LLM e l’architettura delle reti neurali, la macchina stessa mostra di voler perpetuare, per tale evidente limite logico strutturale di progettazione, tutti gli assoluti di azione-reazione da cui bisogna inevitabilmente tutelarsi nel caso di gestione di materie soggetti ad innumerevoli variabili condizionanti. Se è pur vero che con l’esperienza e l’apprendimento automatico L’AI migliora le sue capacità relazionali, è altrettanto logico immaginare una corrispondente intromissione di fallacie ed euristiche di sistema. È vero che il sistema viene costantemente aggiornato dai suoi sviluppatori con il rilascio di versioni sempre più performanti e precisi, perlomeno nei caratteri esteriori delle risposte, ma gli stessi sviluppatori segnalano come le tecnologie in questione siano alla fine concepiti non erogare risposte vere e sbagliate, ma, semplicemente per sublimare nell’interlocutore la sensazione di un linguaggio il più simile all’umano mediante output verosimili e plausibili senza che la macchina possa comprendere realmente il significato. In ambito nazionale, per l’appunto è stato lo stesso Garante Privacy a mettere subito in guardia dai possibili rischi derivanti dall’impiego di applicativi come ChatGPT e con il suo provvedimento n. 112, del 30 marzo 2023, seguito a ruota da altre Autority europee, è stato avviato un processo di monitoraggio della compatibilità tra il trattamento dei dati impiegato dal software e il GDPR sull’assunto che «le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto». Prove di sostituzione algoritmica: il caso “Avianca” L’idea di surrogazione delle attività professionali mediante l’impiego delle diverse piattaforme di AI generativa ha oramai pervaso le coscienze dei molteplici attori del mercato economico, in parte per la fascinazione generata da strumenti particolarmente innovativi, in parte, anche, dalla considerazione di opportunità finanziaria ed ottimizzazione dei processi lavorativi, nell’ottica di un miglioramento costante della produttività e del profitto. Non è da trascurare neanche la circostanza per cui, dal momento che una tecnologia innovativa si rende disponibile alla generalità degli attori, è inevitabile presumere che prima o poi, la stessa, possa essere intercettata e sperimentata da qualcuno in grado di interpretarne il potenziale, sia esso meritorio o meno. In tal senso, viene dato seguito velocemente ad impieghi concreti e raffazzonati con tutto ciò che ne comporta in termini di affidabilità e vulnerabilità del sistema di garanzie necessario ad un legittimo affidamento verso figure che dovrebbero garantire qualità ed essere espressione di una formazione frutto di esperienza, sapere e capacità di discernimento razionale. Tutto fuorché i risultati raggiunti nelle prime sperimentazioni dell’AI nel contesto delle professioni legali e della giustizia largamente intesa. Uno dei casi più emblematici richiamato dalla cronaca di mezzo mondo, soprattutto per la sua particolarità casistica ed il risalto folcloristico della vicenda ha riguardato l’impiego della Chatbot GPT poco dopo l’arrivo sul mercato dell’applicativo palesando, forse per la prima volta, in modo consistente e tangibile, il pericolo dell’impiego di strumenti generativi nei contenziosi legali. Il caso, che ha visto coinvolte presunte parti lese dalla condotta di un grosso e storico operatore del settore aeronautico colombiano, molto conosciuto e sfruttato nelle Americhe latine, ha stimolato l’ingegno dell’avvocato difensore Steven Schwartz dello studio legale Levidow, Levidow e Oberman. Nella causa, il cliente dei due avvocati, pretendeva la dimostrazione di una responsabilità della compagnia aerea per un infortunio provocato da un carrello di servizio del velivolo, il quale lo avrebbe ferito al ginocchio durante il volo dell’agosto 2019 da El Salvador a New York. L’impostazione difensiva nel caso specifico Dopo la richiesta della compagnia aerea di archiviazione del caso per scadenza dei termini di prescrizione, la difesa di Schwartz aveva presentato una serie di memorie difensive allegando precedenti, tra cui casi come “Varghese v. China Southern Airlines”, “Martinez v. Delta Airlines” e “Miller v. United Airlines”, rivelativi, dopo attendo controllo e per quanto di interesse al ragionamento, completamente falsi ed inventati dall’algoritmo a cui l’avvocato si era rivolto per ottimizzare il processo di scrittura ed allegazione della linea difensiva. La solerzia dei difensori della compagnia Avianca, dopo attenta analisi e mancato riscontro oggettivo dei precedenti addotti nella richiesta di risarcimento, ha permesso di individuare le irregolarità commesse nell’architettura delle accuse potando all’evidenza della corte come la ricostruzione dei casi fosse il frutto di una completa e totale falsificazione prodotta dall’impiego di algoritmi di AI generativa, cui Schwaltz si era, presumibilmente, rivolto per l’elaborazione di un prodotto confacente al supporto delle istante sottoposte al vaglio del giudice. Una dichiarazione giurata dell’avvocato ha confermato quanto sospettato dagli avvocati della compagnia e, infatti, lo stesso ha condiviso con la corte l’impiego della ChatBot per “integrare” la sua ricerca sostenendo, però, a suo discarico di “non essere a quel tempo a conoscenza della possibilità che il contenuto potesse essere così palesemente falso”. È interessante, però, notare come dalla condivisione di schermate e screen delle domande poste da Schwaltz a ChatGPT nella costruzione della sua tesi difensiva, in merito ai casi citati e sulla loro concreta esistenza, Il programma abbia risposto in modo positivo, sostenendone il loro riscontro addirittura in “database legali affidabili”, tra cui Westlaw e LexisNexis. L’esperienza degli avvocati sembra non essere stata determinante nel condizionare la scelta di rivolgersi all’AI, né, tantomeno ha consentito un processo di controllo interno sulla qualità tra i veri professionisti e collaboratori, probabilmente per una sciatteria professionale molto comune in realtà consolidate e pervase da suggestioni protocollari schemi di risultato ben consolidate ed efficienti, il cui impiego e larga diffusione, soprattutto in alcuni contesti di matrice anglosassone, ma di cui il sistema di Civil law ne subisce costantemente la fascinazione, dovrebbe essere rivisto e ridimensionato nell’ottica di un approccio sempre più diffuso all’implementazione di tecnologie di questo tipo. Un modello a scatola chiusa Il fatto che strumenti come GPT non siano soggetti pensanti trova enorme riscontro in argomenti classici come la “sala cinese”, dove un avveduto Jhon Searle, già nei lontani anni ottanta, per descrivere l’affidabilità dei computer dell’epoca descriveva come una macchina posta in una stanza soggetta a continui stimoli in lingua cinese, dopo un po' di tempo fosse in grado di generare degli output nel medesimo linguaggio, provocando l’inganno di un potenziale interlocutore, non perché comprendesse realmente il lessico simulato, ma perché era in grado di farlo in virtù degli input somministrati in un ambiente chiuso. ChatGPT è uno strumento molto più potente dei computer diffusi ai tempi in cui Searle espresse le sue argomentazioni critiche, può assorbire enorme quantità di dati, maggiori rispetto ana banale stanza in cui si parla la lingua cinese, apprende ed impara le connessioni probabilistiche tra le parole per generare discorsi simil umani, eppure, proprio come la macchina della stanza, non riesce a comprenderne il significato o la logica di base. Nel caso Avianca, lo stesso giudice ha specificato nell’ordine sanzionatorio come non ci sia nulla di “intrinsecamente improprio” nel comportamento dei professionisti legali nell’avvalersi degli strumenti d’intelligenza artificiale presenti sul mercato per l’ “assistenza”, ma, allo stesso tempo ha rilevato come un’etica professionale in linea con il rispetto dei principi dei diritti fondamentali e del giusto processo “impongono un ruolo di controllo agli avvocati per garantire l’accuratezza dei loro documenti”. L’aspetto più preoccupate, secondo il giudizio della corte, riguardava per l’appunto il perpetuarsi della tesi difensiva, nonostante le evidenze di una inconsistenza delle argomentazioni poste a supporto della loro accusa, evidentemente frutto di artifici, inconsapevoli o meno. È ormai risaputo che le AI generative possono “allucinare”, cioè, produrre output plausibile, di difficile discernimento, ma a ragion veduta ciò impone un maggior tasso di controllo e consapevolezza in contesti e domini del sapere dal carattere fortemente ambigui e fumosi, come i contenziosi legali. L’uso di intelligenze artificiali da parte di avvocati è solo una parte della tendenza all’impiego di tali strumenti nell’amministrazione della giurisdizione, nonché l’ennesimo capitolo di una cultura della sperimentazione di strumenti predittivi per l’analisi di informazioni nel contesto dei contenziosi legali. Una tendenza sempre più diffusa da supervisionare Già nell’ormai lontano 2012 il giudice Andrew peck adotto alcune codifiche predittive per l’esame di informazioni memorizzate elettronicamente e, già da un po' di tempo, le revisioni tecnologiche ed assistite con applicativi di AI sono oggigiorno parte consistente nel toolkit di professionisti, soprattutto in virtù del fatto che operatori legali ed avvocati in particolare, hanno il dovere etico di fornire una rappresentanza e duna difesa competente ed al passo con i tempi e i “i cambiamenti nella tecnologia pertinente”. Gli operatori della giustizia dovrebbero aspettarsi programmi sempre più sofisticati e ciò comporta prima tutto l’adozione di una generale prudenza riservandosi dall’inserimento nei programmi come GPT di informazioni riservate che potrebbero così finire nei database di sviluppatori e società proprietarie degli appari. Tra le misure pratiche per la riduzione di fenomeni allucinatori si dovrebbe evitare la richiesta all’AI generativa di conclusioni non valide fornendo come input di Giurisprudenza consolidata oppure garantire quale regola generale d’uso l’inserimento delle informazioni più rilevanti all’inizio ed alla fine dei prompt, per la tendenza dei modelli linguistici di grandi dimensioni ad analizzare meglio informazioni non sepolte nel mezzo. Sempre sulla medesima linea di prudenza, si dovrebbero fornire feedback (positivo o negativo) agli strumenti generativi dell'AI per ridurre drasticamente l'errore con l'accortezza tecnica di accesso allo strumento API di OpenAI per moderare i parametri di temperatura per la riduzione delle allucinazioni. Ultimo, ma non per importanza, è di fondamentale importanza comprendere che nulla potrà mai sostituire e superare il meticoloso lavoro di un buon avvocato o giudice chiamato alla gestione della controversia, laddove, il fattore umano giocherà sempre un ruolo fondamentale nella gestione delle sfumature emotive e relazionali della dialettica processuale. Sarebbe facile e semplice liquidare il caso Avianca come la manifestazione un banale caso di spregiudicatezza mercantilistica e sciatteria professionale, con scarsa replicabilità e ripetizione in situazioni analoghe sotto un attento controllo umano, tuttavia, la confusione dell’AI generativa come di predominanza ed sopraffazione piuttosto che come strumento di ricerca e supporto è piuttosto facile nei contenziosi soggetti ad enormi ripercussioni in termini economici ed umani, comportando evidentemente il rischio di profondi abusi. Strumenti come ChatGPT possono comportare enormi benefici per l’ottimizzazione del processo istruttorio e di ricerca casistica, portando all’efficientamento delle consulenze e decisioni a beneficio delle parti interessate dal contenzioso, ma tali strumenti possono anche determinare irrimediabili errori quando vengono finalizzati e meschinamente assoggettavi alla soddisfazione delle rispettive ambizioni. Le parti devono sempre procedere con sapiente attenzione e non dovrebbero mai sostituire con l’AI i dadi e i bulloni della cultura e comprensione del reale.