Il principio dell’”Human-in-the-loop”, ossia del soggetto incaricato di supervisionare il funzionamento del sistema di intelligenza artificiale, impone che la persona incaricata della sorveglianza abbia sempre la possibilità di interrompere il funzionamento del sistema di intelligenza artificiale, o di assumerne il controllo, o, ancora, di valutare e, eventualmente, ignorare le raccomandazioni fornite dal sistema.
La nozione di intelligenza artificiale rilevante per il diritto penale L'obiettivo di contemperare l'innovazione tecnologica e tutela dei diritti fondamentali è una delle principali sfide che aspetta legislatore nei prossimi anni. L'Unione europea, a partire dalla comunicazione dal 2018 intitolata “L'intelligenza artificiale per l'Europa”, ha tentato di assumere un ruolo di leadership nella regolamentazione dei sistemi di intelligenza artificiale. Il primo tassello di tale regolamentazione costituito dal regolamento sull'intelligenza artificiale detta i requisiti di sicurezza che ciascun sistema di intelligenza artificiale dovrà soddisfare per poter essere introdotto sul mercato. L'interposizione di un decision making algoritmico tra la condotta umana e l'evento lesivo rischia di incidere sulla sfera di controllo dell'agente, rendendo impossibile un rimprovero a titolo personale per il verificarsi dell'offesa. Nello specifico, il coinvolgimento di un sistema di intelligenza artificiale nella lesione di beni giuridici tutelati penalmente potrà avere un diverso impatto sull'integrazione delle fattispecie incriminatrici, a seconda che si tratti di reati a forma libera o reati a forma vincolata. Per i reati a forma libera come l'omicidio e le lesioni, sia nella forma colposa che dolosa , la tipicità del fatto è concentrata sulla causazione dell'evento, quale che sia la modalità della condotta. Di conseguenza, il comportamento di un sistema di intelligenza artificiale rileva nella misura in cui può interferire nel percorso eziologico che collega l'agente umano ed evento lesivo, così come può incidere sulla capacità, per l'agente di prevedere ed impedire il verificarsi dell'evento lesivo. Per i reati a forma vincolata , che descrivono un'offesa realizzata attraverso specifiche modalità, l'inserimento dell'intelligenza artificiale nella dinamica criminosa potrà determinare una tipicità del fatto concreto già sul piano della condotta. Così, ad esempio, pare difficile che gli sviluppatori di Chat GPT possano essere ritenuti responsabili, a titolo di diffamazione, per le notizie false e lesive della reputazione altrui che talvolta, stando ad alcune notizie di cronaca, sono state fornite dal chatbot. A voler tacere le difficoltà nel riconoscere un dolo di diffamazione in capo agli sviluppatori, infatti, già sul piano oggettivo si riscontra l'insussistenza del requisito della comunicazione con più persone richiesta dall' articolo 595 c.p. ai fini dell'integrazione del reato. Dal punto di vista normativo, la definizione destinata ad avere importanti ripercussioni è quella contenuta nel regolamento sull'intelligenza artificiale, che definisce il sistema di intelligenza artificiale come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni e decisioni che possono influenzare ambienti fisici o virtuali. Emerge la necessità di individuare una nozione più ristretta di intelligenza artificiale che comprenda solo i sistemi che hanno caratteristiche dirompenti rispetto ai classici modelli di imputazione della responsabilità penale. Di conseguenza dovrebbero essere esclusi quei sistemi che riproducono problematiche giuridiche note. Il nucleo del problema sembrerebbe consistere nella imprevedibilità del comportamento di alcuni dispositivi intelligenti , caratteristica che, a sua volta, parrebbe legata a tre proprietà che si riscontrano nei sofisticati sistemi di intelligenza artificiale, l'autonomia, l'interattività, l'opacità c.d. black box .In particolare il modello computazionale che determina l'imprevedibilità della nuova generazione di sistemi di intelligenza artificiale è il c.d. machine learning, una tecnica che permette agli algoritmi di apprendere dall'esperienza e dall'ambiente circostante modificando le proprie prestazioni nel corso del tempo. A differenza dei tradizionali algoritmi, gli algoritmi di machine learning non recano istruzioni nozionistiche, ma sono piuttosto dotati delle informazioni necessarie su come apprendere, come classificare, come generalizzare. A tale scopo i sistemi di machine learning utilizzano un metodo induttivo e probabilistico osservano i dati forniti in sede di addestramento, riconoscono i pattern statistici sottostanti e ne traggono delle generalizzazioni, ragionando per analogia. Pur raggiungendo livelli molto elevati di accuratezza nell'analisi e nella generalizzazione dei dati , i sistemi di machine learning si dimostrano incapaci di fornire spiegazioni puntuali e comprensibili per l'uomo, circa i fattori che hanno portato ad assumere una determinata decisione è il problema della c.d. black box. Al successo tecnologico del machine learning è così legato un risultato paradossale gli stessi ricercatori che sviluppano i sistemi di AI non sono in grado di comprendere a fondo come e perché i sistemi agiscono in un determinato modo. Oltre ad essere all'origine dell'inintelligibilità dei risultati algoritmici, il metodo probabilistico del machine learning può determinare talvolta la commissione di errori che, ad uno sguardo umano, possono apparire grossolani e macroscopici. Può capitare che un sistema di riconoscimento di immagini basato sul machine learning scambi una tartaruga per un fucile. Alcuni ricercatori hanno dimostrato che possono bastare degli adesivi o dei graffiti su un segnale stradale per causare un errore di riconoscimento da parte di un sistema di guida autonoma. Piccolissime variazioni nell'input, insignificanti agli occhi di un osservatore umano, possono determinare una percezione erronea da parte del sistema di AI, proprio per il fatto che le tecniche di machine learning sono in grado di individuare le associazioni statistiche nei dati, ma non sono invece capaci di tracciare modelli astratti di spiegazione causale di tali ricorrenze. La responsabilità penale derivante dalla produzione di sistemi di AI e l'accertamento dell'esito di causalità Occorre soffermarsi sugli aspetti più attinenti all'attribuzione della responsabilità penale per le fattispecie di omicidio e lesioni colpose. Occorre cominciare con la posizione del produttore dei sistemi di intelligenza artificiale . Col termine produttore si intendono tutte quelle persone che a vario titolo contribuiscono ai processi di sviluppo, progettazione e commercializzazione dei dispositivi intelligenti . Va da sé che l'individuazione del soggetto personalmente responsabile tra coloro che fanno parte del ciclo produttivo incontrerà difficoltà specifiche, determinate dal problematico accertamento a della specifica causa dell'evento lesivo esempio difetto di programmazione o di addestramento , oppure dalla persona responsabile all'interno delle organizzazioni complesse. Il produttore costituisce il soggetto più idoneo a valutare i rischi della commercializzazione dei prodotti intelligenti e incidere sulla loro sicurezza . D'altra parte, la perdita di controllo sul comportamento degli algoritmi di machine learning caratterizza anche le società produttrici che introducono sul mercato dispositivi pericolosi, nella consapevolezza di non conoscerne i potenziali effetti collaterali. Per quanto riguarda la struttura dei reati causalmente orientati , l'imprevedibilità del comportamento algoritmico potrà avere un impatto sia sul piano della ricostruzione del fatto tipico, sia sul piano dell'accertamento della colpevolezza e del superamento dell'area di rischio consentito. Dal punto di vista oggettivo, la caratteristica opacità dei sistemi potrebbe ostacolare la verifica circa la sussistenza di un nesso eziologico tra condotta umana ed evento lesivo. Va premesso che la difficoltà nella ricostruzione del nesso causale è già stata sperimentata in relazione a precedenti fenomeni di danni per difetto del prodotto molto criticata, in dottrina, è stata a tal proposito la tendenza giurisprudenziale ad eludere il puntuale accertamento del concreto decorso eziologico tra la condotta umana ed evento lesivo. I casi più discussi riguardavano, allora, l' accertamento del nesso di causalità tra impiego di prodotti indiziati di contenere sostanze dannose per la salute e il verificarsi di eventi lesivi per i consumatori . I giudici avevano individuato il nesso di condizionamento senza neppure individuare la sostanza causalmente lesiva all'interno di un numero di elementi chimici o naturali “sospetti” in questi casi, com'è stato osservato, il giudice non solo cessa di essere “consumatore” di leggi scientifiche di copertura, ma rischia di non assurgere più a “produttore” di tali leggi, dal momento che rinunci alla stessa possibilità di conoscere il fattore eziologico, determinante nel caso concreto. Il rischio che simili scorciatoie si verificano anche in relazione ai prodotti intelligenti non è trascurabile ad oggi, infatti, e stando alle dichiarazioni degli scienziati, su un incipiente crisi di comprensione dei modelli computazionali più avanzati, sempre di più, anche in futuro, non esiste un consolidato corredo nomologico , che consenta di spiegare il comportamento dei sistemi di intelligenza artificiale, tanto che sono gli stessi scienziati a riferirsi alle attività algoritmiche come ad un fenomeno quasi magico. L'identificazione della specifica causa dell'evento lesivo potrebbe sembrare all'apparenza superflua, in fondo si potrebbe pensare, l'importante è che si dimostri che la condictio sine qua non sia costituita da un generico malfunzionamento del sistema di intelligenza artificiale, potendo in questo modo accollare l'addebito al “produttore” indipendentemente dall'identificazione dello specifico fattore causativo del danno. A differenza di prodotti in cui è la stessa dannosità ad essere incerta, nel caso degli embodied artificial intelligence system , la potenzialità lesiva è evidente , poiché legata al dinamismo dell'oggetto si pensi a un healthcare robot che, mentre operi, recida improvvisamente un'arteria o a una self driving car che corre all'impazzata per le strade cittadine investendo qualsiasi persona che incontri sulla traiettoria. L' errore algoritmico è un sotto-evento di una determinata condotta umana dall'individuazione del preciso fattore che ha cagionato il malfunzionamento del sistema di intelligenza artificiale dipende, insomma, l'identificazione della persona fisica a cui è casualmente riconducibile l'evento. Sul punto occorre fare un esempio un sistema di image recognition installato su un autonomous vehicle non riconosce un semaforo rosso, il veicolo impegna l'incrocio e si scontra con una moto proveniente dal senso di marcia opposto, causando la morte del motociclista. In un caso di questo tipo, il mancato riconoscimento del semaforo rosso potrà essere alternativamente determinato dall'esecuzione di attacchi al modello di machine learning da parte di un gruppo terroristico dal mancato aggiornamento del software da parte dell'operatore da un insufficiente addestramento dell'algoritmo da condizioni meteorologiche che non consentivano al sistema di operare in modo efficiente, da un bug nel codice, eccetera. Oltretutto, al di là di questi fattori, il sistema di AI può anche semplicemente sbagliare. Ad esempio, l'algoritmo di image recognition può scambiare il semaforo rosso per una decorazione natalizia, così come, in altre occasioni, ha scambiato una tartaruga per un fucile. È questa l'ipotesi più problematica perché in casi come questi il nesso causale tra la condotta del produttore e l'evento lesivo viene ad assottigliarsi , tanto che una parte della dottrina ha ipotizzato che l'interposizione algoritmica possa interrompere il nesso di causalità in quanto causa sopravvenuta sufficiente da sola a determinare l'evento ai sensi dell' articolo 40, comma 2, c.p.