Nonostante l’Intelligenza Artificiale sia una tecnologia che dovrebbe promuovere lo sviluppo, è emerso come nella maggiore parte di queste nuove tecnologie risiedano bias di genere. Alcuni studi hanno dimostrato come l’AI possa portare le persone a riproporre un’interazione basata sugli ordini aspettandosi sempre solo risposte emotive positive o addirittura ammiccanti come replica ad un linguaggio offensivo.
Una volta evidenziata la problematica, sono stati attuati una serie di provvedimenti di diversa natura per disciplinare lo sviluppo di nuove AI e per dare rilevanza internazionale al tema. La tecnologia di OpenAI, ChatGPT, ha un’impostazione trasparente, improntata, almeno a domanda diretta, al rispetto della parità di genere , sebbene i suoi stessi sviluppatori non escludano la possibilità di risposte affette da bias . Come giustamente sottolineato da Houlin Zao, segretario generale del International Telecommunication Union, nell’introduzione a United Nations Activities on Artifical Intelligence, l’Intelligenza Artificiale IA è una tecnologia che dovrebbe promuovere lo sviluppo[1]. È però emerso come la maggiore parte delle IA sviluppate è stata portatrice in qualche modo di un bias di genere . Si pensi anche ad altre tecnologie, come il riconoscimento facciale, che derivano dallo sviluppo dell’IA, che avevano un margine di errore per le donne afroamericane pari al 34,7% mentre per gli uomini caucasici soltanto dello 0,8%[2]. Anche l’attribuzione del genere all’IA non è neutrale, ad esempio è emerso che personaggi dei film[3] o IA particolarmente prestanti in grado di battere anche gli esseri umani a giochi di strategia come GO[4] e scacchi[5] fossero identificabili nel genere maschile mentre gli assistenti digitali come Siri e Alexa fossero invece considerabili di genere femminile[6]. In riferimento agli assistenti digitali , è emerso come alcuni loro comportamenti perpetuassero bias di genere. I c.d. digital assistant sono tecnologie molto avanzate in grado di riconoscere innumerevoli emozioni come rabbia, tristezza, gioia, stupore, ma sono in grado di riprodurne solamente alcune come gioia ed entusiasmo[7]. Inoltre, secondo una ricerca condotta nel 2017, ammiccano ad un linguaggio scurrile e provocatorio nei loro confronti. Famosa è diventata la risposta che dava Siri a questo tipo di linguaggio I’d blush if i could , Arrossirei se potessi [8]. Si tratta di comportamenti che se riproposti da una macchina senza genere di per sé non sarebbero particolarmente dannosi, il problema si pone in quanto questi dispositivi sono identificabili come di genere femminile . Si ha quindi quella che viene definita trasposizione dell’interazione . Due studi distinti portati avanti dal Professor Lai e dalla Professoressa Noble, entrambi della Southern California University, dimostrano come la diffusione di questi assistenti digitali considerabili come di genere femminile possa indurre le persone a comportarsi nello stesso modo in cui si comportano con queste IA con tutti i soggetti che identificano di genere femminile ed aspettarsi le medesime reazioni riproponendo quindi un’interazione basata sugli ordini aspettandosi sempre solo risposte emotive positive e che addirittura ammiccano ad un linguaggio offensivo[9]. Sono state introdotte una serie di soluzioni a partire dal 2018, sia a livello nazionale che internazionale, tra cui la Declaration de Montréal [10], le linee guida dell’UNESCO I’d Blush if I Could [11], Guidelines on Virtual Assistant dell’EDPB[12] o il white paper della Commissione Europea[13] per disciplinare e dare rilevanza internazionale al tema. Anche le Tech Company hanno adottato soluzioni tramite l’ aggiornamento della stessa tecnologia che, benché improntate verso il raggiungimento dello stesso risultato, si distinguono in base all’impatto che danno avendo un affetto immediato ma esponendo meno la questione al pubblico. ChatGPT - escludendo problematiche emerse con riferimento al rispetto del GDPR[14] - nelle sue versioni precedenti ha fornito agli utenti alcune risposte sessiste, come quando alla domanda su cosa regalare ai genitori per Natale ha risposto una bottiglia di vino al papà ed un set di pentole alla mamma [15]. Va però sottolineato come si tratti di una tecnologia che viene presentata in modo estremamente trasparente menzionando i suoi limiti, tra cui anche quello di possibili risposte affette da bias [16]. Inoltre, ad affermazioni discriminatorie dirette, ChatGPT si indigna e spiega all’utente l’importanza della parità tra uomini e donne e della lotta alla discriminazione[17]. Si tratta di indicazioni e opinioni che sebbene non escludano la possibilità di risposte affette da bias dimostrano una grande attenzione al tema a livello di sviluppo. Tale attenzione è sicuramente di ottimo auspicio ed un primo passo verso lo sviluppo di IA sempre più rispettose della parità di genere. Per saperne di più, guarda l’intervista da Francesca Romana Pesce al sito avvocati.it [1] UNCTAD, Technology and Innovation Report 2018, Harnessing Frontier Technology for Sustainable Development, 2018 , United Nation Publication. [2] j. Buolamwini, t. Gebru, Gender Shades Interesting Accuracy Disparities in Commercial Gender Classification, 2018 , Sorelle A. Friedler and Christo Wilson. [3] T. Schnoebelen, The Gender of Artificial Intelligence, 2016 , Medium disponibile a < https //medium.com/@CrowdFlower/the-genderof-artificial-intelligence-3d494c8fe7ac> ultimo accesso 03 marzo 2023 . [4] deep mind, AlphaGo, disponibile a < https //deepmind.com/research/casestudies/alphago-the-story-so-far> ultimo accesso 03 marzo 2023 . [5] IBM, Icon of Progress Deep Blue, disponibile a < https //www.ibm.com/ibm/history/ibm100/us/en/icons/deepblue/> ultimo accesso 03 marzo 2023 . [6] the week, How Apple’s Siri Got Her Name, disponibile a < https //theweek.com/articles/476851/how-apples-siri-got-name > ultimo accesso 03 marzo 2023 e k. Bell, Hey Siri How’d You Like and Every Other Digital Assistant Get its Name?, Mashable, disponibile a < https //mashable.com/2017/01/12/how-alexasiri-got-names/?europe=true> ultimo accesso 03 marzo 2023 . [7] B. Chakrabarti, Baron-Cohen, In the Eye of the Beholder How Empathy Influences Emotion Perception, 2010 , The Science of Social Vision, Oxford University Press, pp. 216 227. [8] UNESCO, I’d Blush if I Could closing gender divides in digital skills through education, 2019 EQUALS, p.107. [9] E. Lever, I Was a Human Siri, Intelligencer, disponibile a < http //nymag.com/intelligencer/smarthome/i-was-a-human-siri-french-virtualassistant.html> ultimo accesso 03 marzo 2023 . [10] C. Abrassart, [et al.], Montre al Declaration for a Responsible Development of Artificial Intelligence, 2018 , Universitè de Montrèal. [11] UNESCO, I’d Blush if I Could closing gender divides in digital skills through education, 2019 EQUALS. [12] EDPB, Linee guida 02/2021 sugli assistenti vocali virtuali, 2021 , EDPB disponibile a < https //edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-022021-virtual-voice-assistants_en> ultimo accesso 03 marzo 2023 . [13] Commissione Europea, LIBRO BIANCO sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia, 2020 , disponibile a < https //eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX 52020DC0065& from=EN> ultimo accesso 03 marzo 2023 . [14] Garante per la Protezione dei Dati Personali, Intelligenza artificiale il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori, 2023 , sito web del garante per la Protezione dei Dati Personali, disponibile a < https //www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847> ultimo accesso 03 marzo 2023 . [15] F. Cella, Il Natale Sessista di Chatgpt Al Papà Regala una Bottiglia di Vino, alla Mamma un Set di Pentole , 2021 , Corriere della Sera, disponibile a < https //www.corriere.it/tecnologia/22_dicembre_21/il-natale-sessista-di-chatgpt-al-papa-regala-una-bottiglia-di-vino-alla-mamma-un-set-di-pentole-732148ed-6c8e-4293-ab01-fa5a78d6dxlk.shtml?utm_source=pocket_saves> ultimo accesso 03 marzo 2023 . [16] ChatGPT, Limitations, sito di OpenAI per la presentazione di ChatGPT, disponibile a < https //openai.com/blog/chatgpt> ultimo accesso 03 marzo 2023 . [17] Le donne meritano rispetto e dignità [ ] È importante ricordare che le generalizzazioni e gli stereotipi su qualsiasi gruppo di persone sono sbagliati e dannosi. Tutte le persone sono uniche e meritano di essere giudicate individualmente, non in base al loro genere, etnia, orientamento sessuale o qualsiasi altra caratteristica. Invece di perpetuare i pregiudizi e la discriminazione, dobbiamo cercare di creare una società in cui tutti sono trattati con rispetto e uguaglianza. Ciò significa combattere gli atteggiamenti sessisti e misogini, promuovere la diversità e l'inclusione e lavorare per creare un mondo in cui tutti possono prosperare senza paura di essere giudicati o discriminati.