Intelligenza artificiale e sistemi giudiziari nel documento UNESCO

L’ingresso dell’intelligenza artificiale nei sistemi giudiziari non rappresenta, come è noto, una semplice innovazione tecnologica. Si tratta di un passaggio fondamentale che è in grado di condizionare l’intero “meccanismo” della giurisdizione in qualsiasi Paese.

Per la prima volta, strumenti capaci di apprendere, classificare, suggerire e produrre testi giuridicamente coerenti e plausibili sono entrati stabilmente nello “spazio” in cui si formano delle decisioni che possono incidere sulla libertà, sui diritti e, soprattutto, sulla dignità delle persone. Il documento UNESCO che andiamo a commentare si colloca, consapevolmente, in questo momento storico che in molti ritengono critico. Non si presenta come un manuale tecnico, né come un regolamento in qualche modo vincolante, ma come un apprezzabile tentativo di ricostruire un “quadro di senso”, prima ancora che un sistema di regole, per orientare l’uso dell’intelligenza artificiale nella giustizia in una fase, si diceva, di profonda trasformazione. L’idea di fondo che attraversa l’intero testo è che la giustizia non possa essere trattata come un qualunque ambito di automazione amministrativa. L’intelligenza artificiale può certamente contribuire a migliorare l’efficienza, ridurre i tempi e facilitare l’accesso alle informazioni. Quando entra in contatto con l’attività giurisdizionale, però, essa interagisce con un ecosistema normativo (e di valori) particolarmente delicato. Non sono in gioco, infatti, solamente performance o accuratezza statistica, bensì la legittimazione stessa del potere giudiziario e la fiducia dei cittadini nell’idea di giustizia come luogo di responsabilità e di controllo. In questo senso, il documento compie una scelta netta: rifiuta ogni visione che veda nella tecnologia “la” soluzione e colloca l’intelligenza artificiale in una posizione chiaramente subordinata rispetto al giudizio umano. L’intelligenza artificiale, nel documento, non è mai pensata come sostituto del giudice. È uno strumento ausiliario , da utilizzare sotto supervisione, con piena consapevolezza dei suoi limiti e delle sue possibili distorsioni. Si tratta di una presa di posizione tutt’altro che scontata, soprattutto in un contesto globale in cui la narrazione sull’“oggettività” degli algoritmi rischia di oscurare il carattere inevitabilmente interpretativo, e “legato al quotidiano”, del diritto. I contenuti del documento Il cuore del documento è rappresentato da un insieme articolato di principi che non dovrebbero essere letti come un elenco astratto ma come una piccola architettura etico-giuridica . Al centro di questa architettura si colloca la tutela dei diritti fondamentali, intesa non come vincolo all’innovazione ma come criterio interno di legittimità dell’uso dell’intelligenza artificiale. L’attenzione alla non discriminazione, all’eguaglianza nell’accesso alla giustizia, alla correttezza procedurale, alla protezione dei dati personali e alla libertà individuale evidenzia chiaramente come il problema non sia se l’intelligenza artificiale funzioni, ma per chi funzioni, a quali condizioni e con quali effetti sistemici. Particolarmente rilevante è l’insistenza sul rischio che l’uso “non governato” dell’intelligenza artificiale possa amplificare disuguaglianze preesistenti. Se l’accesso alla giustizia viene mediato da strumenti digitali opachi o complessi, chi non dispone delle competenze tecnologiche (o delle risorse necessarie) rischia di essere ulteriormente marginalizzato . In questa prospettiva, l’innovazione tecnologica non è mai neutra: può diventare strumento di inclusione o di esclusione, di semplificazione o di opacizzazione del rapporto tra cittadino e istituzione. Un altro asse portante del documento riguarda la trasparenza . La giustizia, per essere tale, deve essere comprensibile, contestabile e controllabile. L’introduzione di sistemi algoritmici che producono suggerimenti, classificazioni o testi giuridici pone un problema radicale di intelligibilità della decisione . Se non è possibile comprendere come un certo output sia stato generato, su quali dati si basi, quali margini di errore presenti e quali assunzioni implicite lo sorreggano, viene meno uno dei presupposti fondamentali del giusto processo . Da qui l’enfasi sulla spiegabilità e sulla necessità di garantire sempre la possibilità di contestare decisioni influenzate , anche solo in parte, da strumenti di intelligenza artificiale. Il documento assume, inoltre, una posizione particolarmente ferma sul piano della responsabilità . L’uso dell’intelligenza artificiale non attenua né redistribuisce la responsabilità del giudice o dell’istituzione giudiziaria. Al contrario, la rafforza . Chi utilizza strumenti algoritmici resta pienamente responsabile delle decisioni adottate, delle motivazioni espresse e degli effetti prodotti, e non esiste, in questa visione, alcuna “zona grigia” in cui la colpa possa essere attribuita alla macchina. L’intelligenza artificiale non decide, assiste , e proprio per questo il suo utilizzo richiede una vigilanza ancora più attenta. Di grande interesse è anche l’attenzione riservata alla fase organizzativa e istituzionale . L’adozione dell’intelligenza artificiale nella giustizia non è presentata come una scelta individuale del singolo magistrato. Si tratta di un vero e proprio processo che deve essere governato a livello sistemico. Valutazioni preventive degli impatti, analisi dei rischi, meccanismi di controllo continuo e, soprattutto, la possibilità di sospendere o cessare l’uso di strumenti incompatibili con i diritti fondamentali delineano un modello di governance prudente, ma non “rinunciatario”: l’innovazione è ammessa, ma solo a condizione che resti reversibile e costantemente monitorata. L’intelligenza artificiale generativa Particolarmente attuale è il passaggio riservato all’ intelligenza artificiale generativa . Il documento mostra una lucida consapevolezza dei rischi connessi all’uso di sistemi capaci di produrre testi giuridicamente verosimili ma potenzialmente inesatti . Le allucinazioni, le citazioni inesistenti, la difficoltà di distinguere tra contenuti verificati e costruzioni probabilistiche rappresentano un pericolo concreto per l’integrità del processo decisionale. Da qui l’insistenza sulla necessità di dichiarare l’uso di tali strumenti, di verificare sistematicamente gli output e di evitare ogni forma di delega impropria , soprattutto nelle attività che incidono direttamente sulla decisione. Sullo sfondo, ma non troppo, il documento propone una concezione della giurisdizione come pratica eminentemente umana, fondata sulla responsabilità, sulla comprensione del contesto e sulla capacità di rendere conto delle proprie scelte. L’intelligenza artificiale può supportare questa pratica, ma non può replicarla. Non comprende il significato, non valuta il peso della decisione, non risponde pubblicamente delle conseguenze. Confondere l’efficienza con la giustizia, o la coerenza statistica con la correttezza giuridica, significherebbe, pertanto, snaturare la funzione stessa del diritto. Le linee guida nel panorama normativo attuale Se volessimo collocare queste linee guida all’interno del più ampio panorama regolatorio contemporaneo, il confronto con il quadro europeo e nazionale consente di coglierne appieno il significato sistemico. Il documento UNESCO, pur non avendo natura vincolante, dialoga in modo evidente con le più recenti scelte normative, riprendendone talvolta l’impostazione culturale e, in altri casi, fornendo una cornice di valori più ampia entro cui tali scelte possono essere lette. Il primo punto di contatto con la regolamentazione europea dell’intelligenza artificiale ci sembra riguardare la qualificazione dell’uso dell’intelligenza artificiale in ambito giudiziario come ambito strutturalmente sensibile , o ad alto rischio che dir si voglia. Anche nel diritto europeo, come è noto, i sistemi impiegati a supporto dell’attività giudiziaria e delle decisioni che incidono su diritti e libertà fondamentali vengono collocati tra quelli a più elevato impatto, proprio perché inseriti in processi decisionali che non possono tollerare opacità, automatismi irreversibili o trasferimenti indebiti di responsabilità. In questo senso, l’impostazione UNESCO appare pienamente coerente con la logica di fondo europea: non tutta l’intelligenza artificiale è uguale, e non tutti i contesti di utilizzo sono equivalenti sul piano giuridico. Vi è, poi, una convergenza profonda sul ruolo centrale della valutazione del rischio . Tanto nel quadro europeo, quanto nel documento UNESCO, l’adozione dell’intelligenza artificiale non è mai concepita come un atto meramente tecnologico, ma come una scelta organizzativa e istituzionale che richiede analisi preventive, misure di mitigazione e controlli continui. L’idea che l’innovazione debba essere accompagnata da strumenti strutturati di valutazione degli impatti, in particolare sui diritti fondamentali, rappresenta uno dei tratti comuni più significativi. Cambia il linguaggio – più prescrittivo e tecnico nel diritto positivo, più discorsivo e legato ai valori nel documento UNESCO – ma non cambia la sostanza: l’intelligenza artificiale è lecita solo se governata. Un ulteriore punto di contatto riguarda la trasparenza e la spiegabilità . Anche qui, il diritto europeo e le Linee guida condividono una medesima preoccupazione: evitare che la complessità tecnica degli algoritmi si traduca in una sottrazione di intelligibilità delle decisioni. Se nel contesto europeo la spiegabilità è spesso declinata come requisito funzionale alla conformità e alla vigilanza, nel documento UNESCO essa assume una valenza più ampia, legata alla natura pubblica della giurisdizione e al diritto delle parti di comprendere e contestare . Le due prospettive non si contrappongono, ma si rafforzano reciprocamente: la spiegabilità non è solo un obbligo tecnico, ma una condizione di legittimità democratica. Il confronto con la disciplina nazionale italiana sull’intelligenza artificiale del 2025, adottata nel solco dell’armonizzazione europea, evidenzia ulteriori elementi di continuità. Anche nel contesto italiano emerge con chiarezza l’idea che l’intelligenza artificiale debba essere sviluppata e utilizzata in modo antropocentrico , nel rispetto dei diritti fondamentali e dei principi costituzionali. La centralità della persona, il rifiuto di ogni automatismo decisionale lesivo della dignità umana e l’insistenza sulla responsabilità umana finale rappresentano un terreno comune evidente tra la normativa nazionale e le Linee guida UNESCO. Particolarmente significativa è la convergenza sul principio di non sostituzione del giudizio umano . Tanto il quadro italiano quanto quello UNESCO insistono sul fatto che l’intelligenza artificiale non possa mai diventare fonte autonoma di decisione giuridica : il giudice resta il titolare esclusivo del potere di decidere, di motivare e di rispondere delle proprie scelte. L’intelligenza artificiale può assistere, suggerire, supportare, ma non può assumere il ruolo del decisore . In questa affermazione si coglie una continuità profonda con la tradizione costituzionale italiana, che concepisce la giurisdizione come funzione esercitata da persone e non da apparati/strumenti tecnici. Vi è, poi, un’affinità evidente sul tema della responsabilità e della tracciabilità. La normativa nazionale, in linea con quella europea, tende a rafforzare l’idea che ogni utilizzo dell’intelligenza artificiale debba essere riconducibile a soggetti chiaramente individuabili , responsabili delle scelte tecnologiche e degli effetti prodotti. Il documento UNESCO enfatizza ulteriormente questa impostazione, affermando che l’uso dell’intelligenza artificiale non attenua la responsabilità del magistrato ma, semmai, la rende ancora più centrale . In questo senso, le Linee guida svolgono una funzione quasi “pedagogica”, richiamando l’attenzione sul rischio di una deresponsabilizzazione “psicologica” prima ancora che giuridica. Nel complesso, il confronto mostra come il documento UNESCO non si ponga in alternativa ai quadri normativi vincolanti, ma operi su un piano diverso e complementare. Laddove il diritto europeo e nazionale definiscono obblighi, divieti e procedure, le linee guida forniscono una guida etica e istituzionale dell’uso dell’intelligenza artificiale nella giustizia. Esse aiutano a interpretare le norme non come meri adempimenti, ma come espressione di una scelta di fondo: preservare la natura umana, responsabile e pubblica della funzione giurisdizionale anche nell’era dell’automazione intelligente. In questa prospettiva, il valore del documento UNESCO risiede proprio nella sua capacità di fare da ponte tra livelli diversi di regolazione . Esso consente di leggere l’ AI Act europeo e la normativa italiana non solo come strumenti di controllo tecnologico, ma come parte di un progetto più ampio di governo della trasformazione digitale della giustizia, in cui l’innovazione è ammessa, ma solo a condizione di restare compatibile con i principi fondamentali dello Stato di diritto. Ma non solo: le Linee guida UNESCO offrono molto più di un insieme di raccomandazioni operative. Esse delineano una visione della giustizia nell’era dell’intelligenza artificiale che rifiuta tanto l’entusiasmo acritico quanto il rifiuto “difensivo” della tecnologia. L’intelligenza artificiale non è né una minaccia da esorcizzare, né una soluzione miracolosa da adottare senza riserve. È uno strumento potente, che richiede un altrettanto potente apparato di garanzie, competenze e responsabilità. E in questo equilibrio difficile tra innovazione e tutela dei diritti si gioca una parte decisiva del futuro (anche) della giurisdizione.

Documento UNESCO