Fake News. Garante Privacy e AGCOM: no agli algoritmi

Il fenomeno delle Fake News non deve essere abbandonato all’arbitrio di un algoritmo o di un provider che stabilisce ciò che è vero e ciò che è falso. Questa la tesi del Garante Privacy e di AGCOM. E’ giusto permettere la circolazione di notizie dubbie opponendo lo scudo della censura? E’ giusto permettere che soggetti anonimi diffondano informazioni denigratorie schermati dal diritto di espressione? E’ giusto permettere che i gestori delle piattaforme digitali siano gli unici arbitri di questioni così complesse? E’ ammissibile che degli algoritmi decidano il vero o il falso nell’internet?

Interrogativi così importanti non possono essere abbandonati nelle mani di soggetti terzi provider o di prodotti dell’Intelligenza Artificiale algoritmi . Non esistono soluzioni a tavolino in questi settori ma ogni caso è una vicenda da studiare specificatamente e questa attività può essere fatta solo dalla mente umana avvezza al diritto, alla giurisprudenza e al bilanciamento dei diritti contrapposti. Il caso. Il Garante Privacy Antonello Soro in un convegno del 27 novembre 2017 ha stigmatizzato la questione delle Fake News dicendo quello che bisogna evitare, nel trattamento delle fake news è da una parte attribuire ai gestori delle piattaforme digitali il ruolo di semaforo, lasciando loro una discrezionalità totale nella individuazione di contenuti lesivi. E dall'altra evitare di immaginare di attribuire ad un algoritmo il compito di arbitro della verità fonte Ansa . Queste parole inquadrano perfettamente il problema delle fake news online. La burla è sempre esistita ma il fenomeno delle fake news è molto diverso perché non si tratta di opere di buontemponi ma di vera e propria attività scientifica organizzata per screditare qualcuno o qualcosa. Esistono degli esperti in ingegneria reputazionale in grado di guidare/manipolare le opinioni della gente online grazie al sapiente utilizzo della comunicazione nei social network e nell’internet generalista. Tutto si consuma sulle piattaforme digitali i cui gestori sono gli unici soggetti in grado di bloccare la bomba reputazionale. Tuttavia molto spesso i gestori si schermano dietro il principio della non responsabilità del provider e - opponendo il diritto alla libertà di informazione - si rifiutano di svelare le identità degli autori delle campagne denigratorie. La vittima delle fake news si trova così disarmata e impotente. Impossibilitata a difendersi perché l’autore dell’offesa è quasi sempre anonimo e il provider dello spazio web su cui la notizia è circolata rifiuta di bloccare il contenuto lesivo. L’esempio lampante di fake news” si osserva nella cronaca delle ultime presidenziali americane. Una parte dell’opinione pubblica sostiene che la campagna elettorale di Trump sia stata favorita dall’attività denigratoria operata da hacker russi impegnati a sganciare bombe reputazionali online per screditare la Clinton. Un eloquente esempio nostrano di fake” si coglie nella circolazione massiva online della foto ritraente noti esponenti politici al funerale del boss Riina un autentico” fotomontaggio. Le soluzioni ipotizzate per sedare la valanga di informazioni non verificate sono state riconosciute o nell’attribuzione ai provider del compito di fare fact checking controllo della veridicità delle fonti della notizia oppure nell’attribuzione ad algoritmi elaborati ad hoc di vagliare la rete separando il vero dal falso. Giustamente il Garante Privacy lancia un allarme a tutela dei diritti della persona che non possono essere lasciati in balia dell’arbitrio di un provider o di un algoritmo. Sulla stessa lunghezza d’onda si pone anche il Garante delle Comunicazioni AGCOM che con Delibera n. 423/17/CONS del 6 novembre 2017 istituisce il Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali”. Osservazioni. Sotto il profilo giuridico il fenomeno delle fake news si riconduce all’ambito del diritto all’informazione quale interesse pubblico contrapposto al diritto al decoro, all’onore e alla reputazione della persona. Ambito che implica il tema della responsabilità del provider e dell’anonimato. E’ giusto permettere la circolazione di notizie dubbie opponendo lo scudo della censura? E’ giusto permettere che soggetti anonimi diffondano informazioni denigratorie schermati dal diritto di espressione? E’ giusto permettere che i gestori delle piattaforme digitali siano gli unici arbitri di questioni così complesse? E’ ammissibile che degli algoritmi decidano il vero o il falso nell’internet? Interrogativi così importanti non possono essere abbandonati nelle mani di soggetti terzi provider o di prodotti dell’Intelligenza Artificiale algoritmi . Non esistono soluzioni a tavolino in questi settori ma ogni caso è una vicenda da studiare specificatamente e questa attività può essere fatta solo dalla mente umana avvezza al diritto, alla giurisprudenza e al bilanciamento dei diritti contrapposti. Responsabilità del provider e anonimato. Il diritto alla libertà di espressione ammette l’anonimato nei casi in cui l’autore dei contenuti potrebbe essere sottoposto a persecuzioni solo perché ha espresso un’opinione. Il nostro ordinamento giuridico interno ed europeo tuttavia non può tollerare una prevalenza del diritto di espressione quando ciò infligga un sacrificio sproporzionato al diritto alla reputazione. I criteri-guida per esercitare l’attività di bilanciamento sono indicati dalla giurisprudenza interna e europea. Si evidenziano in particolare due pronunce della Corte UE dei diritti dell’uomo ECHR che espletano in modo chiaro tutti i passaggi di questa valutazione ponderativa Magyar Tartalomszolgaltatok Egyesulete MTE e Index.hu v. Hungary, n. 22947/13, ECHR 2.02.2016 e Delfi AS v. Estonia, n. 64569/09, ECHR 16.05.2015. In queste due sentenze i criteri presi in considerazione sono stati i seguenti - contenuto e contesto dei commenti lesivi in rapporto all’interesse pubblico - continenza, pertinenza e offensività o hate speech dei commenti lesivi - responsabilità degli autori dei commenti lesivi e anonimato in rapporto alla responsabilità del gestore - condotta della parte offesa e misure di contrasto assunte dal gestore - conseguenze dannose per la parte offesa in rapporto alle conseguenze dannose per il gestore. Questa ponderazione tra diritto alla libertà di espressione degli utenti anonimi e diritto alla reputazione trova necessariamente sponda nella figura del terzo-gestore della piattaforma in quanto risulta impossibile stigmatizzare l’identità effettiva degli autori della condotta in contestazione. La partita si gioca tra parte offesa e terzo-gestore. Questo inevitabilmente comporta che la valutazione ponderata deve ammettere un altro profilo di proporzionalità ovvero quello relativo alla posizione del terzo-gestore che, sebbene non autore materiale dell’illecito, ne risponde direttamente. In definitiva, la Corte UE dei diritti dell’uomo MTE e Index.hu v. Hungary, n. 22947/13, § 79, ECHR 2.02.2016 sostiene che il gestore non essendo l’autore effettivo dell’illecito ha diritto ad ottenere una analisi della proporzionalità tra la responsabilità degli autori effettivi dei commenti e la responsabilità dei ricorrenti-gestori . L’analisi di proporzionalità tra i due tipi di responsabili autori effettivi anonimi e terzo-gestore si conduce sulla scorta di diversi parametri. Occorre verificare ad esempio se il terzo-gestore ha previsto delle misure di contrasto degli eventuali illeciti come una policy ad hoc sui contenuti vietati e un meccanismo di notice-and-take-down ” o comunque un sistema di moderazione. Occorre poi verificare il tipo di condotta assunta dal terzo-gestore di fronte alla segnalazione dell’esistenza di contenuti lesivi sulla propria piattaforma è rimasto indifferente? Si è attivato subito per la rimozione? Chiaramente il terzo-gestore che non ha disposto nessuna misura di contrasto non potrà invocare l’applicazione del principio di proporzionalità a proprio favore perché non ha costruito nessuno strumento atto a fare la differenza tra il proprio grado di responsabilità e quello degli effettivi autori anonimi. Il terzo-gestore che invece ha disposto le misure di contrasto idonee a prevenire o a ridurre gli effetti negativi dell’illecito, potrà rivendicare la propria posizione di quasi neutralità” rispetto alla posizione di piena responsabilità degli autori effettivi. Si parla di quasi neutralità” perché dal momento in cui riceve la segnalazione dell’illecito, il terzo-gestore vede scattare l’obbligo di attivarsi altrimenti si colloca sul medesimo livello di responsabilità degli autori effettivi. Si tratta di una responsabilità a posteriori che scatta dal momento dell’avviso dell’illecito. Responsabilità a posteriori. La giurisprudenza interna e europea si è espressa chiaramente in merito al concetto di responsabilità a posteriori. Pensiamo principalmente alla pronunzia-guida della CGUE sul caso UPC Telekabel del 27 marzo 2014 in cui si espone chiaramente il concetto di responsabilità a posteriori del gestore secondo cui il divieto imposto agli Stati membri di imporre un obbligo di sorveglianza preventivo e generale non riguarda gli obblighi di sorveglianza di tipo special-preventivo, relativi a casi di violazione di diritti specifici, ove il generale regime di limitazione della responsabilità non esclude la possibilità per i singoli di intentare azioni inibitorie a tutela dei propri singoli diritti CGUE sezione IV sentenza 27 marzo 2014, causa C-314/12, caso UPC Telekabel Wien GmbH c. Constantin Film Verleih GmbH . Da questa pronunzia derivano tutta una serie di sentenze importanti in materia come Corte di Appello di Milano, 7 gennaio 2015, n. 29 , caso YAHOO!I./ RTI in cui si dice che 23. Si impone all'hosting provider , allorquando viene reso edotto del contenuto illecito di specifici caricamenti effettuati da terzi fruitori del servizio, sì da fargli perdere la posizione di iniziale neutralità rispetto ai contenuti caricati nello spazio da esso gestito, ma aperto al pubblico. [] Quanto sopra detto implica un conseguente obbligo di rimozione da parte del gestore del servizio non appena avuta notizia dell'infrazione da parte del titolare del diritto o dell'autorità di vigilanza, ma mai un obbligo general-preventivo di sorveglianza sui contenuti pubblicati sul suo sito . Ricordiamo poi Tribunale di Roma 27 aprile 2016, caso RTI/Break.com secondo cui la giurisprudenza nazionale e europea è ormai consolidata nell’indicare l’ effettiva conoscenza” in quella in qualunque modo acquisita [] e comunque sulla ricezione di una diffida o comunque di un’informazione proveniente dal titolare dei diritti sui contenuti diffusi quale momento dell’insorgenza della responsabilità . Altro provvedimento di rilievo è Tribunale di Napoli Nord, sez. II Civile, ordinanza 3–4 novembre 2016 caso Tiziana Cantone-reclamo di Facebook secondo cui si conferma la condanna di Facebook alla rimozione dei contenuti lesivi in quanto una volta ricevuta la diffida era stato posto in grado di attivarsi secondo quella funzione di sorveglianza di tipo special-preventivo” caso UPC Telekabel cui devono attendere i terzi-gestori se non vogliono essere equiparati in termini di responsabilità agli autori effettivi dell’illecito. Nell’ottica del ragionamento complessivo richiesto dalla tecnica del bilanciamento, preme evidenziare che laddove il gestore venisse condannato alla rimozione non verrebbe sottoposto a una conseguenza sproporzionata mentre la mancata tutela della parte offesa condannerrebbe quest’ultima a un danno irreparabile. La parte offesa ha subito e sta subendo un danno ingiusto dai forum lesivi in termini di diminuzione della considerazione da parte dei consociati in genere o di settori o categorie di essi con le quali la persona giuridica o l’ente di norma interagisca Cass. n. 12929/07- caso di segnalazione illegittima alla Centrale Rischi e in termini di incidenza negativa che tale diminuzione comporta nell’agire delle persone fisiche che ricoprano gli organi della persona giuridica o dell’ente e, quindi, nell’agire dell’ente Cass. n. 12929/07 . Algoritmi e diritti della persona. Il Garante Privacy ha già chiaramente detto che i diritti della persona non possono essere lasciati all’arbitrio di un algoritmo nel Provvedimento Piattaforma web per l'elaborazione di profili reputazionali -24 novembre 2016 ”. Qui si tratta il caso di una società che ha realizzato un algoritmo di elaborazione di profili reputazionali su base documentale. L'algoritmo si nutre” di dati forniti volontariamente dagli stessi interessati che richiedono di pubblicare sulla piattaforma web della società il proprio profilo reputazionale. La scheda personale viene costruita grazie all'intervento di due fattori la funzione dell'algoritmo e l'opera umana del consulente di reputazione. Spiega l’Authority all'esito delle operazioni di verifica, il sistema provvederebbe a calcolare, mediante un sofisticato algoritmo matematico, un punteggio” complessivo da assegnare agli interessati c.d. rating reputazionale” atto a determinarne il grado di affidabilità . Il Garante, sebbene apprezzando la finalità del progetto di infondere certezza nel tessuto socio-economico, è costretto ad ammonire severamente la società sulla sostanza posta alla base del sistema ovvero la reputazione. La reputazione attiene alla dignità personale equivale a trattare la persona stessa, figura fondante dell'ordinamento giuridico. Si tratta di una materia delicatissima che non può essere lasciata alla discrezionalità di privati senza nessun ancoraggio normativo e quindi in assenza di valide garanzie di tutela. Parimenti il diritto all’informazione veritiera non può essere abbandonato ai ragionamenti” di una macchina perché si tratta di altra materia delicatissima e afferente sia alla sfera soggettiva sia alla sfera dell’interesse pubblico.