Smart assistant, dati inferiti e profilazione emotiva. I rischi dell'intelligenza artificiale tra richiami alla consapevolezza e Cybersecurity Act

Lo smart assistant o assistente digitale è la mini piattaforma domestica in grado di collegare tutti i dispositivi domotici che prima erano incapaci di comunicare tra loro. L'assistente digitale è a propria volta collegato con l'utente e con la piattaforma della fabbrica di appartenenza. Dotato di microfono, di riconoscimento facciale, di rilevatori dei parametri vitali e della voce, è la cimice dell'industria data driven installata in casa nostra.

Paghiamo i suoi servigi con la parte più intima dei nostri dati le nostre emozioni. Emozioni inferite dai nostri dati biometrici voce, volto . L'assistente digitale elabora dati emotivi inferiti dai dati biometrici. La profilazione 1.0 applicata sui dati personali e tesa a scoprire i nostri gusti, le nostre tendenze, le nostre opinioni, restituisce la nostra identità sebbene traslata in forme di identità collettiva. La profilazione sui dati inferiti dall'assistente domestico costituisce uno stadio più evoluto che si potrebbe definire profilazione 2.0 o profilazione emotiva. Questo tipo di trattamento condotto dall'intelligenza artificiale non si ferma unicamente a spiare ma addirittura spia per manipolare lo stesso processo decisionale dell'interessato che - esposto all'esca manipolativa dell'intelligenza artificiale - compie scelte manovrate senza rendersene conto. La posta in gioco stavolta va ben oltre la violazione dei nostri dati personali e si attesta essere la nostra stessa libertà di autodeterminazione. La partita è tra la libertà di scegliere anche cose sbagliate contro la perfezione logica del determinismo dell'algoritmo. Gli strumenti di contrasto di questa mostruosa deriva meccanicistica vengono indicati dal Garante Privacy nell'assunzione di consapevolezza, nella verifica umana, nella valutazione di impatto a priori secondo il principio di proporzionalità e nella security by design grazie alla certificazione dei dispositivi IoT secondo il dettato del Cybersecurity Act. Smart Assistant o Assistente Digitale. Assistente digitale è quel simpatico scatolotto che obbedisce ai tuoi comandi vocali oppure ai tuoi ordini impartiti a distanza. L'immaginario collettivo lo colloca in casa come un fido maggiordomo che alza le tapparelle la mattina e le chiude la sera che attiva la lavatrice e la lavastoviglie che accende il riscaldamento o il raffreddamento che aziona la video-sorveglianza o il sistema di allarme ti accoglie a casa accendendo le luci e diffondendo la tua musica preferita mentre suona alla porta il fattorino che ti consegna la cena, poco prima ordinata per te on line dal novello Battista. Indubbiamente un bell'aiuto per chi lavora fuori casa ma può davvero essere paragonato alla figura dell'umano maggiordomo? Il Carson di Downton Abbey si sarebbe tagliato la lingua prima di rivelare i segreti della famiglia Crawley perché la prima regola di un maggiordomo professionista è la discrezione. Non altrettanto possiamo dire del nostro assistente digitale che funziona grazie a collegamenti multipli da una parte con la piattaforma elettronica del produttore di appartenenza e dall'altra con tutti i dispositivi domotici sfruttando l'Internet of Things IoT . Insomma un vero e proprio hub che mette in comunicazione apparecchi intelligenti prima incapaci di comunicare tra loro. Il nostro amico domestico è frutto di una tecnologia di prim'ordine il cui valore è ben superiore al prezzo di acquisto dello scatolotto che comunque saprà ripagare ampiamente il sacrificio economico del proprio padrone sciorinandogli tutti i flussi informativi carpiti dall'intimità delle nostre abitazioni. La profilazione di Facebook e Cambridge Analytica risulta un gioco innocente in confronto alla profilazione profonda esercitata dagli assistenti digitali che addirittura aprono alla profilazione emotiva. Profilazione emotiva e dati inferiti. Gli assistenti digitali sono muniti di microfono collegato alla piattaforma del marchio di appartenenza a cui giungono le registrazioni delle conversazioni in famiglia eseguite dal simpatico scatolotto spia. Gli informatici dell'Alexa di turno ascoltano e riascoltano tali conversazioni per rendere l'aiutante digitale sempre più performante. La piccola spia domestica si trasforma in uno scanner degli stati emotivi inferiti dati inferiti ovvero dati estrapolati da altri dati a prescindere dal consenso degli interessati dalla rilevazione dei parametri vitali, dal campionamento delle voci, dalla scansione dei volti. I dati inferiti dai dati biometrici voce, volto permettono all'intelligenza artificiale del nostro spione domestico di imparare a conoscere le nostre reazioni a certi tipi di situazioni, a certe persone, a certi stimoli offerti ad arte dal nostro amichetto digitale per testare cosa faremmo se . Quando si arriva al trattamento del cosa faremmo se sulla base dei dati emotivi inferiti dai nostri dati biometrici abbiamo voltato pagina dalla profilazione 1.0 sui dati personali siamo passati alla profilazione 2.0 sui dati emotivi inferiti. La profilazione 1.0 rivela i nostri gusti, le nostre tendenze, le nostre opinioni insomma restituisce le nostre identità sebbene a livello collettivo e in prospettiva. Su questa identità - che è pur sempre la nostra - interviene successivamente la manipolazione si ricordi lo scandalo di Cambridge Analytica . La profilazione 2.0 invece restituisce una identità altra prodotta dall'intervento manipolativo immanente - e non successivo - al processo emotivo di scelta della persona. La profilazione 2.0, la profilazione emotiva restituisce il nostro cosa faremmo se inquinato dall'esca introdotta ad arte dall'intelligenza artificiale. L'esca dell'algoritmo si basa sulla teoria economica del micromotive Thomas Schelling ovvero del piccolo incentivo o del piccolo tornaconto che - laddove offerto - può indurre una persona a scegliere qualcosa che forse non avrebbe scelto in mancanza dell'attrazione del piccolo vantaggio. Per esempio, la nostra spia domestica sente dire in casa che il bambino amerebbe gustare il gelato di un noto marchio di alta qualità ma i genitori - per ristrettezze economiche - sono costretti a dargli il gelato di un'altra azienda più a buon mercato. Poniamo che questa informazione sia stata acquisita anche da molti altri spioni domotici. Il produttore dello scatolotto si trova tra le mani una traccia informativa in grado di ampliare il mercato del gelatiere over the top che - contattato - acquista il trend informativo. Ora il gelatiere può tendere l'esca del piccolo incentivo diffondendo nei supermercati una versione del gelato di massima qualità ad un prezzo ragionevole intercorrente tra i prezzi più alti praticati in negozio e i prezzi molto più bassi dei competitors della grande distribuzione. Ecco la manipolazione. Il nostro cosa faremmo se dei genitori del bambino, inquinato dall'esca della nuova versione di gelato, trova soluzione nella scelta di acquisto. Scelta che però non è stata spontanea bensì pilotata. Se non fosse intervenuto l'elemento manipolatorio, i genitori avrebbero potuto continuare ad acquistare il solito gelato oppure avrebbero potuto scegliere mille altre opzioni. Molto opportunamente è stato osservato che occorre sviluppare un sistema di regolazione che vada oltre l’attuale nozione di dati personali, per ricomprendere anche i dati inferiti tramite algoritmi di apprendimento automatico così nell'aprile 2019, il Commissario AGCOM Martuscello, intervenuto alla presentazione del numero monografico della Rivista Diritto ed Economia dei Mezzi di Comunicazione Il Regolamento europeo 679/2016 lo stato di attuazione” . Il Comitato dei Ministri UE dimostra di essere ben consapevole di questo ulteriore stadio di trattamento quando il 13.02.19 pubblica la Dichiarazione sugli effetti manipolatori degli algoritmi Declaration by the Committee of Ministers on the manipulative capabilities of algorithmic processes Dichiarazione adottata dal Comitato dei Ministri del Consiglio Europeo il 13 Febbraio 2019 . L'ex garante Francesco Pizzetti commenta la Dichiarazione dicendo che l’idea di fondo di questa importantissima presa di posizione del Consiglio è che non è più sufficiente tutelare i dati personali degli utenti. Adesso servono tutele ad hoc per i dati inferiti”, come si legge nella dichiarazione quei dati che – tratti da altri dati, magari anche relativi a persone terze – riescono grazie ad analisi algoritmiche a predire e influenzare i nostri comportamenti, conoscenze, scelte e opinioni . Il pericolo insito nelle dinamiche della profilazione emotiva si sostanzia nella perdita dell'autodeterminazione decisionale, del libero arbitrio, della libertà anche quella di sbagliare. Il perfetto determinismo dell'intelligenza artificiale, una volta scoperto tramite l'assistente digitale che hai il colesterolo alto, impedirà al tuo frigo di segnalare la mancanza di formaggi. Il premuroso maggiordomo meccanico non concepisce il fatto che tu possa mangiare il formaggio sapendo che ti fa male. Sarebbe illogico. Ma è proprio qui il punto l'uomo non è solo logica, è sentimento, è gusto per il bello, è intuizione e nessuno, proprio nessuno deve permettersi di impedirti di mangiare il formaggio anche se hai il colesterolo alle stelle. Gestire il rischio autodeterminazione affievolita con il test di proporzionalità. Volendo essere ottimisti, possiamo abbandonare lo scenario del rischio della totale perdita di autodeterminazione ma non possiamo negare l'evidente rischio di un'autodeterminazione affievolita dalle pratiche manipolatorie fondate sulla profilazione emotiva. Il GDPR 2016/679 ci mette in guardia dai trattamenti automatizzati concedendoci il diritto di opposizione e il diritto alla spiegazione del funzionamento dell'algoritmo. Il GDPR pretende l'obbligo della trasparenza dell'equazione algoritmica e della composizione originaria dati personali da cui sono stati elaborati i dati inferiti della base informativa su cui viene applicata. Solo l'effettiva trasparenza delle logiche dell'intelligenza artificiale consente un controllo pubblico dell'impatto del trattamento sui diritti alla privacy e alla data protection. Gli strumenti per la gestione del rischio si individuano nell'imposizione a priori della verifica umana sulla trasparenza, sull'eventuale portata discriminatoria, sul bilanciamento tra i diritti in gioco valutato sulla scorta del principio della proporzionalità. Una buona palestra ermeneutica per abituarsi a capire preventivamente se un trattamento di dati inferiti potrebbe avere un impatto negativo sul diritto alla data protection ovvero sul diritto all'autodeterminazione si può individuare nel test di proporzionalità UE sulle proposte normative. Prima di legiferare in tema di trattamenti particolarmente delicati, l'EDPS European Data Protection Supervisor raccomanda il test di proporzionalità ovvero la valutazione circa la proporzionalità delle limitazioni ai diritti fondamentali alla privacy e alla data protection da adottare nelle nuove misure normative EDPS Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal, pag. 32-33 . In questa guida l'EDPS rappresenta dei casi già vagliati alla luce delle sentenze della CGUE e della propria stessa giurisprudenza nell'intento educativo di mostrare quale tipo di ragionamento assumere per capire preventivamente se le misure di garanzia previste siano sufficienti a tutelare gli interessati da eventuali impatti negativi sui diritti fondamentali della privacy e della data protection. In questa sede si ricordano due esempi uno sugli strumenti automatizzati per impedire la diffusione di materiale terroristico on line un altro sugli strumenti automatizzati in ambito sanitario. Nel primo caso l'EDPS raccomanda quanto segue per quanto riguarda le garanzie verifica umana, spiegazioni significative, relazioni nel contesto di un possibile uso di misure automatizzate, cfr. Commenti formali del GEPD sulla proposta della Commissione sulla prevenzione della diffusione di materiale terroristico online, a pagina 8 Articolo 8, paragrafo 1 , ai sensi degli obblighi di trasparenza , prevede che gli HSP dovrebbero definire nei loro termini e condizioni la loro politica sulla prevenzione del contenuto del terrorismo, includendo, se del caso, una spiegazione significativa del funzionamento delle misure proattive, compreso l'uso di strumenti automatizzati EDPS Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal, Nota 60, pag. 32-33 . Nel secondo caso l'EDPS risulta ancora più cogente quando raccomanda che i fornitori di servizi sanitari on line dovrebbero fornire alle autorità competenti tutte le informazioni necessarie sugli strumenti automatizzati utilizzati per consentire un controllo pubblico approfondito sull'efficacia degli strumenti e garantire che non producano discriminazioni, risultati non mirati EDPS Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal, Nota 60, pag. 32-33 . Abbassare la soglia del rischio. Cybersecurity Act e certificazioni UE security by design. Realisticamente non abbiamo la certezza che la deriva tecnologica deterministica dell'intelligenza artificiale permetta spesso i controlli preventivi di cui abbiamo parlato sopra. Purtroppo l'industria della società data driven - salvo un obbligo di legge - tende ad evitare di spendere risorse nelle valutazioni a priori sull'impatto delle proprie tecnologie e spesso gli interessati, solo dopo molto tempo, si scoprono vittime degli effetti discriminatori delle identità collettive o dei bias algoritmici pregiudizi del software . L'unico modo allora per scongiurare o comunque ridurre il rischio discriminatorio o schiavizzante si individua nella certificazione costruita sui principi di privacy by default e privacy by design dettati dal GDPR. Anzi dal 27 giugno 2019 alla privacy by design si è affiancata la security by design con il Regolamento sulla sicurezza cibernetica conosciuto come Cybersecurity Act. Qui la certificazione europea degli oggetti dell'IoT costituisce una parte fondamentale. Il legislatore UE ha indicato le norme quadro per ogni tipo di certificazione che le imprese devono rispettare fin dagli stadi iniziali della progettazione dei dispositivi intelligenti, compreso il nostro spione digitale domestico. Abbassare la soglia del rischio. Consapevolezza e informazione grazie alla guida del Garante Assistenti digitali smart assistant i consigli del Garante per un uso a prova di privacy . Il Garante Privacy, ispiratore e autore di tutte le riflessioni compiute finora, aggiunge un'altra freccia al proprio arco di tutele la promozione negli utenti della consapevolezza del fenomeno e dei rischi connessi. Da qui la guida Assistenti digitali smart assistant i consigli del Garante per un uso a prova di privacy 4 Marzo 2020 costituita di sei punti fondamentali - Informati sempre su come vengono trattati i tuoi dati - Non dire troppe cose allo smart assistant - Disattiva l'assistente digitale quando non lo usi - Decidi quali funzioni dell'assistente digitale mantenere attive - Cancella periodicamente la cronologia delle informazioni registrate - Se dai via lo smart assistant, non dare via i tuoi dati. Riportiamo i passi salienti di seguito. Informati sempre su come vengono trattati i tuoi dati. Leggere con attenzione l’informativa sul trattamento dei dati personali, che deve sempre essere disponibile, ad esempio sul sito dell’azienda che offre il servizio o nella confezione del dispositivo in cui è installato lo smart assistant smartphone, altoparlante intelligente, ecc. . In particolare, è importante cercare di comprendere - quali e quante informazioni saranno acquisite direttamente dall’assistente digitale ad esempio, tramite microfono e/o videocamera - come potrebbero essere utilizzati o trasferiti a terzi i dati raccolti solo per far funzionare lo strumento o anche per altre finalità - chi e come potrebbe ricevere i dati raccolti e se sono possibili, per qualsiasi ragione, accessi in diretta” al microfono e alla videocamera dello smart assistant da parte di addetti della società che lo ha prodotto o della società che gestisce i servizi offerti dallo smart assistant - dove sono conservati questi dati e per quanto tempo. Non dire troppe cose allo smart assistant. Utilizzare pseudonimi per gli account, soprattutto se riferiti a minori. Evitare di utilizzare l’assistente digitale per memorizzare informazioni delicate come quelle relative alla propria salute, le password, i numeri delle carte di credito, ecc Occorre valutare anche rischi e benefici dell’eventuale accesso da parte dello smart assistant ai dati conservati sul dispositivo in cui è installato, come ad esempio l’archivio fotografico, la rubrica, il calendario dello smartphone, ecc Disattiva l'assistente digitale quando non lo usi. Quando è acceso ma non viene utilizzato, l’assistente digitale è in uno stato detto di passive listening, una sorta di dormiveglia” da cui esce non appena sente la parola di attivazione che abbiamo scelto. Ecco allora alcune precauzioni - ricordare che durante il passive listening l’assistente digitale è potenzialmente in grado di sentire” tramite il microfono del dispositivo su cui è installato ed eventualmente anche di vedere” tramite la videocamera del dispositivo su cui è installato tutto quello che diciamo e facciamo. Questi dati possono anche essere memorizzati e inviati a terzi, o comunque possono essere conservati non sul dispositivo, ma su server esterni. Per evitare ogni possibile acquisizione e trasmissione non desiderata di dati, quando non si usa l’assistente digitale ad esempio la notte, quando non si è in casa, ecc. , si può - se è consentito decidere di disattivare il microfono o la videocamera o entrambi gli strumenti, oppure - disattivare del tutto l’assistente digitale tramite le impostazioni del dispositivo su cui è installato, oppure spegnere direttamente il dispositivo che lo ospita. E’ una scelta forse un po’ scomoda, perché comporta il dover riattivare il dispositivo quando necessario ma può servire a garantire una maggiore protezione della propria riservatezza. Decidi quali funzioni dell'assistente digitale mantenere attive. Valutare se disattivare alcune funzioni di controllo domotico e inserire apposite password per controllare l’attivazione o disattivazione dei sistemi, in modo da poter utilizzare lo smart assistant con maggiore sicurezza. Si pensi, ad esempio, al rischio eventuale che la voce dell’utente venga in qualche modo captata e clonata da malintenzionati e utilizzata per controllare elettrodomestici o ingressi o sistemi di protezione della casa, oppure per spiare” l’interno dell’abitazione utilizzando microfoni e videocamere. Cancella periodicamente la cronologia delle informazioni registrate. Per limitare il trattamento dei dati personali raccolti dall’assistente digitale, si può periodicamente cancellare la cronologia delle informazioni in esso registrate, o quantomeno eliminare dalla cronologia alcune tipologie di dati ad esempio, quelli ritenuti più delicati . Sono precauzioni importanti - verificare che la crittografia della rete Wi-Fi sia impostata preferibilmente sul protocollo di sicurezza WPA 2 - cambiare periodicamente la password - verificare se sul dispositivo in cui è installato lo smart assistant siano presenti sistemi di protezione anti-virus e tenerli costantemente aggiornati. Se dai via lo smart assistant, non dare via i tuoi dati. Nel caso in cui il dispositivo smartphone, smart speaker, automobili intelligenti, ecc. su cui è installato lo smart assistant venga eventualmente venduto, regalato o dismesso, è bene disattivare gli eventuali account personali creati - ad esempio per attivarlo e connetterlo online - e provvedere alla cancellazione di tutti i dati eventualmente registrati al suo interno o sulla app di gestione. Se i dati raccolti sono stati trasmessi e conservati nei database dell’azienda produttrice o di altri soggetti è opportuno chiederne la cancellazione.