Chat-GPT e il Garante della Privacy

Professionisti in allerta per l’ennesima trovata di quella tanto sconosciuta quanto già evoluta intelligenza artificiale. Stavolta, la minaccia” porta il nome di Chat-GPT, software sviluppato da Open AI, in grado di elaborare un testo, simulando una conversazione con un umano che, di intelligenza, se ne vanta al naturale, aberrando, quando in pericolo, quanto più di artificiale il suo stesso cervello genera .

A presidio delle professioni, quelle sempre più frequentemente avvertite della loro futura e certa” estinzione, è intervenuto il Garante della Privacy , tamponando lo spavento degli iscritti agli albi e non si legge nel comunicato dell’Autorità, Chat-GPT raccoglie, in modo illecito, i dati che gli utenti-incuriositi e/o interessati al prodotto-forniscono alla chatbot . Quanto si può leggere nel provvedimento che ha, di fatto, momentaneamente bloccato la creazione di OpenAI, si pone sicuramente in collisione con la tolleranza tangibile ogni qual volta tutti noi ci siamo sentiti al sicuro di cedere” i nostri dati a quella o altra applicazione tanto simpatica, scaricata da Apple Store o Google Play. Una minaccia, dunque, non meno pericolosa di tante applicazioni che comunemente vengono usate sul web e non solo. Ed allora si contrasta ciò che non si conosce e si accetta ciò di cui si ha padronanza. In realtà, Chat-GPT, come tutti i sistemi di intelligenza artificiale, ricercano e raccolgono dati non è un caso che la scienza informatica chiama questa operazione data mining essenziali all’applicativo per restituire un risultato aderente alle aspettative dell’utente. Non è difficile costatare che i dati utilizzati servono solo per rendere il servizio più utile all’utente. L’identificazione dell’utilizzatore, di per sé, è inutile se non addirittura dannosa in quanto applicativo potrebbe, involontariamente, creare biases che inficerebbero l’efficienza del sistema. Chat-GPT nulla inventa . Crea un contenuto sulla base dei nostri interessi elaborando parole e testi senza avere coscienza di ciò che fa. Aggrega dati in modo sintattico senza governare la semantica cfr. G. Pasceri, Le incertezze dell’istruttoria nella decisione amministrativa algoritmica , in corso di pubblicazione . Non crea nuovi concetti. Non è certo un pericolo. In tale ottica sembra eccessiva la contestazione mossa dal Garante, in relazione alla adeguata base giuridica, circa la non accuratezza dell’ output di Chat-GPT. Arbitraria, dunque, l’applicazione del parrebbe unico Regolamento Europeo, impeditivo e limitante solo con riferimento a certi casi A. Sarno, Bloccare Chat GPT è una misura draconiana. Impariamo a leggerlo e facciamo le leggi, Huffpost , 01 aprile 2023 . Indulgenti noi stessi utenti con riguardo alla profilazione o al marketing molesto , quando nemmeno con sospetto, ci ergiamo a semplici spettatori e prestiamo il consenso a tutti quei cookies, rispetto ai quali ormai guardiamo senza più sospetto l’importante è che ci diano il p assepartout per leggere l’informazione che non vediamo l’ora di fagocitare e, probabilmente, dimenticare . La tecnologia no, però, non dimentica . Archivia meticolosamente dati che, evidentemente, sono sottoposti ad un grado di tutela differente, a seconda dell’attenzione che, di volta in volta, il garante decide di prestare. Nel concreto, con il provvedimento n. 9870832 del 30 marzo 2023, il Garante della Privacy ha evidenziato una irregolarità circa la mancata informativa riservata ai fruitori di Chat-GPT ed una inesistente base giuridica che giustifichi una raccolta e conservazione dei dati degli utenti stessi. Probabilmente, è proprio il fine che ha fatto rizzare le antenne del Garante nella gran parte dei casi, infatti, i dati forniti dagli utenti non corrispondono al reale, provocando un trattamento dei dati inesatto. E ancora. Sebbene il servizio sia rivolto ai maggiori di anni 13 , di fatto, il sistema non garantisce un filtro idoneo ad assicurare la fruizione nel rispetto delle limitazioni anagrafiche. Open AI , per il tramite di un rappresentante nello Spazio economico europeo, avendo avuto 20 giorni entro i quali comunicare l’adesione alle misure indicate, ha già fatto pervenire al Garante della Privacy due documenti, che sono tutt’ora posti al vaglio della commissione stessa. Entro il 30 aprile , poi, se Open AI conformerà il proprio operato tenendo conto delle indicazioni relative a informativa, diritti degli interessati utenti e non utenti , base giuridica del trattamento per l’addestramento degli algoritmi dei dati degli utenti, il Garante della Privacy potrà sospendere il provvedimento limitativo provvisorio per il trattamento dei dati degli utenti italiani. Quali dovranno essere, dunque, le attenzioni che Open AI dovrà prestare per ottenere finalmente il via libera italiano? Informativa necessario sarà offrire un’informativa trasparente, comprensiva di chiarezza della logica del servizio, rispetto dei diritti degli interessati utenti e non . L’informativa dovrà, poi, essere collocata, a tutela della platea italiana, in una posizione facilmente accessibile e che preceda il completamento della registrazione, con preventiva dichiarazione dell’utente stesso della propria maggiore età. Nel caso di utente già registrato, quest’ultimo dovrà poter nuovamente visionare l’informativa al momento del primo accesso successivo alla riattivazione del servizio, con nuova dichiarazione dell’età anagrafica. Base giuridica la base giuridica dovrà indicare il consenso o il legittimo interesse quale presupposto per l’utilizzo dei dati, con facoltà di Open AI di esercitare poteri di verifica ed accertamento. Esercizio dei diritti gli interessati utenti e non dovranno poter avere la possibilità di chiedere la rettifica dei dati non esatti o la cancellazione degli stessi, nel caso di impossibilità tecnica della rettifica. Semplificazione, poi, e agevolezza della modalità di esercizio del diritto di opposizione rispetto al trattamento dei loro dati personali. Tutela dei minori l’Autorità ha ordinato ad Open AI di trasmetterle, entro il 31 maggio, un piano di azione che preveda, entro il 30 settembre, l’attuazione di un sistema di age verification, volto alla quanto più certa esclusione dell’accesso ad utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori. Campagna di informazione infine, entro il 15 maggio, OpenAI dovrà promuovere una campagna di informazione sui media tv, radio, web per educare ed informare le persone sull’uso dei dati volti all’addestramento degli algoritmi della chatbot. Insomma, si spera che OpenAI consideri praticabile il compromesso e che la questione non finisca come tra Meta e SIAE, tra le quali la trattativa si è rivelata a dir poco fallimentare.