Intelligenza artificiale e redazione degli atti giudiziari civili (I)

Il presente contributo opera una riflessione sull'impiego dei sempre più sofisticati sistemi di IA nel mondo del processo civile da un lato, quanto alla formazione degli atti giudiziari di parte dall'altro, quanto all'interazione con le attività del giudicante.

Premessa In un panorama soggetto ad una tumultuosa evoluzione tecnologica, il passaggio alla fase finale dell'adozione del Regolamento europeo sull'intelligenza artificiale, nel giugno 2023, ha coinciso con l'epilogo di un clamoroso episodio di cronaca giudiziaria d'oltreoceano, in cui le difese che un avvocato statunitense aveva prodotto dopo averne affidato la redazione ad un sistema di IA si sono rivelate articolate su precedenti completamente inesistenti. È questo lo spunto per una riflessione sull'impiego dei sempre più sofisticati sistemi di IA nel mondo del processo civile da un lato, quanto alla formazione degli atti giudiziari di parte dall'altro, quanto all'interazione con le attività del giudicante. In entrambi i casi, le enormi potenzialità dei nuovi sistemi vanno sicuramente colte, ma con adeguata prudenza e cautela, soprattutto mai tralasciando di preservare all'agente umano il ruolo di supervisore e decisore finale consapevole ed attento. Ad una generale algoretica dovrebbe affiancarsi una “giurialgoretica”. La decisione Si tratta dell'ordinanza motivata order and decision della Corte del distretto meridionale di New York degli U.S.A. del 22 giugno 2023, resa da s.o. P. Kevin Castel, reperibile liberamente all'URL https //www.courthousenews.com/wp-content/uploads/2023/06/chatGPT-sanctions-ruling.pdf. È l'irrogazione di una sanzione pecuniaria di U$D 5.000, accompagnata da una lettera a tutti i giudici falsamente citati a due avvocati ed in solido al loro studio professionale dell'attore che, in una causa civile di risarcimento danni intentata da un passeggero contro una compagnia aerea, a sostegno delle tesi a favore del cliente nei loro atti avevano fatto preciso ed ampio riferimento a precedenti giurisprudenziali, elaborati da un sistema di intelligenza artificiale noto come ChatGPT, completamente inventati e quindi inesistenti e per di più articolati su di un tecniloquio scadente, ma sulla cui genuinità essi avevano pure, almeno in un primo momento, solennemente insistito. Il provvedimento giurisdizionale di riferimento, però, non sanziona appunto - in sé e per sé preso in considerazione - l'uso di un sistema di IA nella predisposizione dell'atto giudiziario di parte, ma esclusivamente il suo uso maldestro, cioè senza l'estrinsecazione di un ruolo di supervisione finale sull'affidabilità dei riferimenti indicati e sulla tecnicalità formale e sostanziale delle singole argomentazioni. Rileva infatti il provvedimento che, nella predisposizione degli atti da sottoporre ai giudici, i buoni avvocati appropriatamente ottengono assistenza dai colleghi meno anziani, dagli studenti di legge, dai praticanti, dai testi di approfondimento giuridici tra cui le enciclopedie , sicché “non c'è nulla di specificamente improprio nell'uso di un affidabile strumento di intelligenza artificiale per l'assistenza” “ma le regole vigenti impongono agli avvocati un ruolo di supervisione per assicurare l'accuratezza dei loro scritti”, sicché quelli vengono meno alle loro responsabilità verso controparti e giudice quando si avvalgono di scritti basati su precedenti falsi e, per di più, quando insistono malaccortamente sulla loro esistenza e tanto per una serie di inconvenienti che l'uso di precedenti falsi provoca ad un sistema giudiziario di common law. Ma, appunto, a venire in considerazione è la sottrazione al dovere professionale dell'avvocato di controllare la veridicità delle citazioni operate e la congruità, formale e sostanziale, degli atti da lui predisposti con un ben noto pragmatismo, il sistema giudiziario statunitense non si pone il problema della correttezza dell'uso di un sistema di intelligenza artificiale nel processo, ma solo quello della sua affidabilità. Ed in questo modo tutto si sposta sul diverso piano di cosa debba intendersi con tale termine, a seconda, evidentemente, degli obiettivi e degli scopi dell'attività coinvolta e delle finalità della stessa introduzione, nel sistema giudiziario, di quegli strumenti l'insostenibilità della cui piena neutralità diviene sempre più evidente. In conclusione per il sistema giudiziario statunitense ben venga anche una IA che scriva gli atti degli avvocati, se quella è affidabile e questi ne controllano gli esiti finali. La coeva iniziativa del Garante della Privacy Con deliberazione d'urgenza del 30 marzo 2023 il Garante per la protezione dei dati personali ha limitato temporaneamente l'utilizzo in Italia del software ChatGPT in mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti dalla fornitrice, l'impresa OpenAI, ma soprattutto in assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Lo stesso provvedimento soggiunge che, in base alle verifiche già fino a quel momento effettuate anteriori, quindi, al clamoroso episodio d'oltreoceano , le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. A seguito di una prima risposta operativa della fornitrice del servizio, il medesimo Garante, con successivo provvedimento 11 aprile 2023, ha sospeso l'efficacia dell'ordine cautelare, ma impartendo ulteriori severe istruzioni operative rivolte al trattamento dei dati, sull'ottemperanza alle quali si è riservata una costante istruttoria. Anche in tal caso, peraltro, è evidente che la sanzione al sistema di intelligenza artificiale non entra nel merito della possibilità di avvalersene, ma si ferma alla – pure determinante – fase della raccolta delle informazioni e dei dati personali poi utilizzati per addestrare il programma. Anche in questo caso, quindi, nulla impedisce in sé l'impiego di un sistema di intelligenza artificiale, purché questo garantisca trasparenza e tracciabilità dei dati impiegati. I riferimenti tecnici minimi A meri scopi descrittivi ed ai fini di questa riflessione, per intelligenza artificiale può intendersi ogni sistema che dispiega comportamento intelligente analizzando il contesto e l'ambiente in cui opera, intraprendendo azioni con un certo grado di autonomia per raggiungere scopi prefissati per astrazione, l'intelligenza artificiale è l'abilità di una macchina di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività, di capire il proprio ambiente, di mettersi in relazione con quanto è percepito e di risolvere problemi, di agire verso un obiettivo specifico, adeguando la risposta all'esito delle analisi dei dati immessi e, sempre più spesso, delle reazioni dell'ambiente alle sue precedenti risposte. Il sistema ChatGPT può definirsi un chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano ed è definito il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane dal già richiamato provvedimento del Garante per la protezione dei dati personali del 30 marzo 2023. Se Chat bot, chatbot o chatterbot, è un programma progettato per simulare una conversazione con un essere umano, la sigla GPT sta per Generative Pre-trained Transformer, una tecnologia nuova applicata al machine learning. Lo scopo principale di questi software è quello di simulare un comportamento umano e sono talvolta definiti anche agenti intelligenti il loro uso è vario, dalla guida in linea alla risposta automatica alle FAQ degli utenti che accedono a un sito alcuni impiegano sofisticati sistemi di elaborazione del linguaggio naturale, ma per la maggior parte pare che essi si limitino ad eseguire la scansione delle parole chiave nella finestra di input e fornire una risposta con le parole chiave più corrispondenti. In altri termini, un chatbot è un programma che usa un sistema di intelligenza artificiale ed NLP Natural Language Processing per capire le domande dei clienti e automatizzare le relative risposte, simulando la conversazione umana. Il quadro normativo Come accennato, il 14 giugno 2023 il Parlamento europeo ha adottato la sua posizione definitiva di negoziazione sull'IA Act, sicché si è passati alla fase dei colloqui con i singoli Stati membri sul testo finale del provvedimento legislativo, allo scopo di raggiungere un accordo entro la fine di quest'anno. Può fin d'ora notarsi che la normativa in itinere si preoccupa dei sistemi “generative” quali appunto ChatGPT, prevedendone minimi requisiti di trasparenza con obbligatoria menzione della circostanza che il contenuto è stato ottenuto con quel particolare programma, ma pure con accorgimenti per agevolare la percezione della falsità dei risultati e di garanzia dalla produzione di contenuti illegali, insieme alla libera accessibilità a particolareggiati sommari dei dati coperti da diritto d'autore utilizzati per l'autoapprendimento. Anche il Consiglio d'Europa segue costantemente l'evoluzione della tematica, anche con riguardo al processo. Per la specifica questione dell'intelligenza artificiale nel processo civile, occorrerebbe affrontare la tematica del contenuto e delle caratteristiche degli atti giudiziari siano essi di parte o del giudice secondo la normativa nazionale ma tanto implicherebbe una riflessione troppo ampia in ordine alle impostazioni generali di ordine culturale sulle modalità di preparazione e successiva estrinsecazione dell'attività difensiva delle parti e decisionale del giudicante. Tuttavia, può qui bastare il rilievo che mancano limitazioni positive o normative di ordine qualitativo o contenutistico nella redazione degli atti giudiziari, siano di parte, siano del giudice il legislatore ha solo introdotto una generalizzata potestà regolamentare variamente articolata tra il diritto processuale civile e quello amministrativo che può definirsi vòlta ad una tendenziale armonizzazione meramente estrinseca degli atti giudiziari, di parte e del giudice. Esistono soltanto principi di ordine generale sulle modalità di redazione di atti, ispirati a clausole ampie ed indifferenziate i riferimenti all'inammissibilità degli atti sono riferiti a vizi dei requisiti cosiddetti di contenuto-forma e sono spesso rimessi alla copiosa elaborazione giurisprudenziale delle giurisdizioni superiori. Nel diritto processuale amministrativo è stato da tempo introdotto per disposizione normativa un limite di ordine quantitativo ed in tal senso si muove la disciplina processuale civile a seguito della riforma di cui al d.lgs. numero 149/2022. In particolare nel diritto amministrativo, deve farsi riferimento al comma 2 dell'articolo 3 ed all'articolo 26 del c.p.a., sull'obbligo di redigere gli atti in maniera chiara e sintetica, ma soprattutto all'articolo 13-ter delle norme di attuazione del c.p.a., che rimette ad un decreto del Presidente del Consiglio di Stato la fissazione dei limiti quantitativi degli atti delle parti, la violazione dei quali esime il giudice dall'obbligo di prendere in considerazione l'eccedenza, la mancata disamina della quale non è neppure soggetta ad impugnazione. Analogamente, il codice di rito civile prevede ora espressamente, al secondo periodo dell'articolo 121, che “tutti gli atti del processo sono redatti in modo chiaro e sintetico” con disposizione ripresa via via, talvolta nella declinazione di chiarezza e specificità, per i singoli atti di parte del processo articolo 163, numero 4 articolo 167 articolo 281-undecies articolo 342 e 434 articolo 366, nnumero 3, 4, 6 articolo 473-bis.12, 473-bis.13, 473-bis.17, 473-bis.32 c.p.c. . L'articolo 46 d.a.c.p.c., come modificato dall'articolo 4, comma 3, lett. b , del d.lgs. numero 149/2022, rimette ad un successivo decreto ministeriale, da emanarsi sentiti il Consiglio superiore della magistratura e il Consiglio nazionale forense e da aggiornare con cadenza biennale , per definire da un lato, gli schemi informatici degli atti giudiziari con la strutturazione dei campi necessari per l'inserimento delle informazioni nei registri del processo dall'altro, i limiti degli atti processuali, tenendo conto della tipologia, del valore, della complessità della controversia, del numero delle parti e della natura degli interessi coinvolti. La stessa norma prevede pure che il mancato rispetto delle specifiche tecniche sulla forma e sullo schema informatico e dei criteri e limiti di redazione dell'atto non comporta invalidità, ma può essere valutato dal giudice ai fini della decisione sulle spese del processo. E, soprattutto, conclude stabilendo espressamente che il giudice redige gli atti e i provvedimenti nel rispetto dei criteri di cui al presente articolo. In conclusione, nessun limite intrinseco alla predisposizione di un atto giudiziario può dirsi imposto dalla disciplina vigente, purché esso sia conforme anche all'articolata normativa secondaria sulla giustizia digitale la quale però è, condivisibilmente, finalizzata a garantire genuinità, autenticità e fruibilità dell'atto medesimo e, in quanto tale, la sua ascrivibilità a chi ne appare l'autore, parte o giudice, ma non incide certamente sul contenuto suo intrinseco. Pertanto, nulla pare disciplinare, a pena di invalidità di qualsiasi tipo, le modalità con cui si redigono gli atti giudiziari, né, tanto meno, i procedimenti in base ai quali si perviene alla loro definitiva stesura sicché ad un sistema di intelligenza artificiale, allo stato, ben potrebbe devolversi la redazione di quelli, alla sola condizione che siano fatti propri dall'agente umano.   FONTE IUS/Processo civile