Le c.d. intelligenze artificiali generative sono oramai in grado di riprodurre o simulare i principali elementi caratterizzanti dell’agire umano (testi, immagini, suoni) in modo sufficientemente efficace e verosimile, al punto da rappresentare un serio problema per la già difficile gestione dei modelli interpretativi e cognitivi di base, soprattutto per alcune fasce delle popolazioni suscettibili di manipolazioni e interferenze volte a conseguire obiettivi discutibili e non inclini al bene.
Introduzione L’uso o abuso di strumenti artificiali è potenzialmente alla mercè sia di attori statuali che privati cittadini, i quali, nella rispettiva consapevolezza e legittimità di intenti potrebbero alterare irrimediabilmente il sottile confine tra reale e falso, andando a scalfire il consolidato meccanismo del legittimo affidamento di comunità civili nelle istituzioni di riferimento. Sacrificare i pilastri della civiltà contemporanea in nome di un malcelato sensazionalismo al ribasso e del tutto funzionale all’oggettificazione e mercificazione di una attitudine di tipo relazionale, rischia di compromettere definitivamente il consolidato ancoraggio umano centrico in nome di un meccanicismo tecnocratico disumanizzante. Le c.d. A.I. non fanno altro che incarnare questo bisogno costante di annichilimento e svilimento delle funzioni emotive e comunicative acquisite mediante un interscambio di esperienze e passioni condivise, al punto da immortalare in ingranaggi computazionali diacronie utopistiche di super dotazione inorganica, inscalfibile ed immutabile nella sua elementarità. Non c’è nulla di intelligente in un algoritmo costruito appositamente per ottenere le risposte volute, né, tantomeno, si può affermare che il supporto concreto di una macchina possa solo facilitare e velocizzare articolati elaborati frutto di un meticoloso ragionamento dagli imperscrutabili meccanismi di elaborazione come il cervello umano. Milioni di anni di evoluzione non sono stati sufficienti a dirimere criticità ed errori intrinseci di attori organici, figuriamoci qualche anno di sperimentazione sintetica delle formule matematiche alla base dei meccanismi di funzionamento di A.I. generativa o simile. Elementi di carattere generale Il deepfake, inteso come fenomeno di manipolazione del sistema comunicativo e relazionale nel processo informativo di massa, rappresenta un enorme rischio di interferenza illecita nei meccanismi decisionali ed espressivi della rappresentatività popolare. In virtù della facilità di accesso alla creazione di deepfake, grazie soprattutto all’impiego dei moderni applicativi di A.I. generativa, è sempre più probabile la possibilità di un condizionamento dell’opinione pubblica teso, soprattutto ad orientarne in maniera subdola e distorsiva la visione del contesto con simulazioni verosimili e difficilmente distinguibili dal reale. Al fine di implementare ed integrare sistemi efficienti di mitigazione dei rischi connessi all’impiego dei deepfake, sarebbe opportuno individuare adeguati schemi di risposta mediante implementazione normativa e la creazione di codici etici con il coinvolgimento degli operatori di settore e, soprattutto, la creazione di organi di supervisione o autority con competenze specifiche per la certificazione ed il controllo randomizzato di possibili alterazioni creative. Motivazioni all’approfondimento del tema Il quadro normativo già previsto dalla regolamentazione europea, con la convergenza del legislatore nazionale, possono offrire in prima istanza una sufficiente risposta alle criticità più urgenti, mentre le esperienze già maturate in altri sistemi giuridici possono rappresentare un bacino di riferimento per individuare il giusto compromesso per un adeguato contemperamento tra le esigenze di contenimento del fenomeno ed il naturale processo evolutivo e di innovazione tecnologica nel prossimo futuro, senza compromettere il rapporto di competitività necessaria a mantenere una posizione ottimale nel mercato integrato. Allo stesso tempo, l’impatto dell’implementazione di algoritmi di intelligenza artificiale può avere un notevole peso anche nel sistema della giustizia ed è indispensabile individuare, anche in tal caso, strumenti di mitigazione del rischio e possibili interventi di azione rivolti agli operatori direttamente coinvolti nella gestione della giurisdizione. Proposta di azione Esperienze d’oltreoceano hanno mostrato un significativo grado di tolleranza e flessibilità rispetto ad algoritmi decisionali autonomi, mentre il regolatore europeo, al contrario, si è mostrato da subito restio alla delega totale all’A.I. nel sistema della giustizia, aprendo, però, alla possibilità di un supporto esterno dei diversi modelli nella valutazione degli elementi fattuali, sempre sotto un rigido ed attento controllo umano. Il conseguente apporto normativo del legislatore nazionale, già orientato nel suo disegno iniziale alla fonte di rango superiore europea ed ai diversi schemi di implementazione tecnici degli ultimi anni, dimostra una forte sensibilità al tema, soprattutto nell’ottica di una mitigazione di fattori distorsivi dell’ordine democratico. Sarebbe necessario, anche alla luce delle primordiali esperienze autoctone e delle sperimentazioni in corso di accademie, università ed istituzioni preposte, valutare i fattori critici su cui è possibile intervenire ed i potenziali benefici alla velocizzazione del processo giurisdizionale mediante l’integrazione con applicativi evoluti di A.I., senza compromettere la tenuta dei principi fondamentali a tutela dell’individuo nei sistemi democratici, garantendo il giusto grado di innovazione tecnologica. È fondamentale la supervisione degli organi di autogoverno. Conclusioni Strumenti tecnologici estremamente efficaci come il deepfake hanno mostrato in maniera tangibile il potere rappresentato da un uso distorto di fenomeni in divenire e dal carattere dirompente, in grado di ridefinire con la loro pervasività subdola e capziosa il paradigma del legittimo affidamento nei confronti di qualsiasi manifestazione esteriore del contesto digitale. Il substrato di maturazione degli algoritmi di A.I. è reso ancor più fragile dalla estrema incapacità di comprensione dei meccanismi profondi di funzionamento e, soprattutto, dalla naturale tendenza dell’utente medio ad una scarsa consapevolezza delle criticità di prodotti sempre più alla portata di chiunque e poco avvezzi alla tutela dei valori fondamentali. In tal senso, sono auspicabili interventi di implementazione normativa attenta e meticolosa, non indifferente alla complessità del fenomeno, ma allo stesso tempo protesa ad un’articolazione flessibile e propensa al miglioramento produttivo ed allo sviluppo tecnologico nel settore, oramai inarrestabile. Non serve probabilmente compromettere il legittimo affidamento verso strumenti molto pericolosi adducendo un senso di irrimediabile alterazione del reale, semmai, è essenziale alimentare una gestione razionale e prudente della tecnica e delle sue applicazioni pratiche in contesti suscettibili di incidere nel nucleo essenziale dei valori relazionali. Il diritto, nella sua portata universale e mediata, è, forse, il modo più efficace di arginare derive e passioni al ribasso, ma, attenzione a non abusarne, altrimenti si cadrebbe nello stesso errore logico di desiderare un limite al possibile con la costruzione artificiosa del non accettabile.