Digital Services Act approvato. La responsabilità delle piattaforme è quasi legge

Il DSA è stato approvato in Parlamento UE il 20 gennaio 2022.

Presentazione . Il Digital Services Act DSA , approvato il 20 gennaio 2022 dal Parlamento UE, inizia l' iter delle trattative con gli Stati Membri per la stesura definitiva primo incontro previsto il 31 gennaio 2022. Il Regolamento sulla responsabilità delle piattaforme digitali si avvia ad essere legge. Questo l'auspicio per vedere fissati i punti fondamentali - elaborati dalla giurisprudenza UE - di progressiva limitazione del regime delle esenzioni da responsabilità inizialmente disposto dalla Direttiva e-commerce. L'obiettivo del DSA rendere illecito on line ciò che è illecito off line mirando a combattere ed eliminare i prodotti, i servizi e i contenuti illegali dal web. Gli Euro Deputati a tal fine hanno disposto il meccanismo della notice and action obbligo di garantire la rimozione senza ritardo . Gli ultimi emendamenti apportati dal Parlamento al testo della Commissione serrano le file di questa battaglia favorendo gli invisibili digitali imponendo il divieto di targeting pubblicitario dei minori e dei soggetti vulnerabili imponendo il divieto di praticare tecniche ingannevoli o di nudging per influenzare il comportamento degli utenti attraverso modelli occulti. Vengono favorite altresì le realtà economiche-domestiche stabilendo l'esenzione delle Pmi dagli obblighi imposti alle grandi piattaforme ovvero oltre 45 milioni di utenti e disponendo la possibilità di fruire di una rappresentanza legale collettiva da parte delle Pmi che ne siano sfornite. Si contrasta la profilazione occulta e la non conoscibilità della logica degli algoritmi asserviti al marketing pubblicitario o alla disinformazione. Viene introdotto ad esempio l'obbligo di trasparenza dell'algoritmo che guida le raccomandazioni o consigli di ulteriori acquisti sulla base di profilazione si impone l'obbligo di offrire - in alternativa alla profilazione - l'accesso ai servizi della piattaforma mediante pagamento in denaro e in forma anonima anziché con dati personali oppure mediante la visione di pubblicità non targettizzata come avviene per la pubblicità della tv analogica . Per contrastare gli algoritmi della disinformazione si impone l'obbligo di garantire la libertà di espressione e il pluralismo dei media l'obbligo di contrasto alle fake news e alle pratiche di manipolazione degli utenti. Infine, per sanzionare ulteriormente le condotte illegali è stato stabilito il diritto alla richiesta di risarcimento per eventuali danni derivanti dal mancato rispetto degli obblighi imposti. DSA il Regolamento sulla responsabilità delle piattaforme digitali . La Direttiva e-commerce 2000/31/CE recepita in Italia con il d.lgs. n. 70/2003 sta per essere sostituita dal Regolamento Digital Services Act che dopo l'approvazione del Parlamento UE del 20 gennaio 2022 vede l'inizio delle trattative con gli Stati Membri. Se la Direttiva e-commerce era stata la disciplina sulle esenzioni delle responsabilità delle big tech, il DSA sta per diventare invece la disciplina sulla responsabilità delle piattaforme digitali salvo alcune esenzioni. Solo le piattaforme diligenti e cooperanti con la nuova Autorità Digital Services Coordinator - mediante il loro rappresentante legale nominato in Europa - riusciranno a rientrare nell'ambito delle esenzioni. In difetto il Digital Services Coordinator potrà infliggere sanzioni fino al 6% del fatturato globale. Le piattaforme digitali di riferimento sono in particolare i social media e i marketplace ma ciò non toglie che se ne possano ricomprendere anche altri tipi. Nella Direttiva e-commerce, inizialmente, l'intermediario digitale non aveva obblighi finché non veniva raggiunto da un provvedimento dell'autorità giudiziaria. Grazie all'evoluzione della giurisprudenza della Corte di Giustizia nel momento in cui il gestore viene adesso raggiunto da una segnalazione privata ha l'obbligo di verificare se effettivamente il contenuto segnalato sia illecito e conseguentemente adottare dei provvedimenti. Quando entrerà in vigore il DSA, al gestore non verrà consentito di restare inerte fino alla segnalazione ma dovrà adempiere periodicamente a degli obblighi precisi pubblicare annualmente il report sulle modalità secondo cui sono state gestite le segnalazioni di contenuti illeciti eseguire annualmente la valutazione del rischio di diffusione dei contenuti illeciti e corrispondentemente introdurre le misure correttive adeguate sottoporsi annualmente a audit condotti da soggetti terzi indipendenti certificati e riconosciuti dal Digital Services Coordinator. Gli obiettivi del DSA precisazione delle responsabilità delle grandi piattaforme per la diffusione di prodotti, servizi e contenuti illeciti tutela dei contenuti prodotti da terzi es. media tradizionali, giornali o altre fonti informative contrasto alle fake news obbligo di trasparenza in merito alla pubblicità on line e obbligo delle piattaforme e-commerce di identificazione dei propri venditori onde evitare la circolazione di merci contraffatte o comunque di truffe . Garanzia di riuscita pratica degli obblighi di rimozione è il meccanismo del notice and action . La gestione dei contenuti illeciti . Il DSA stabilisce l'obbligo per la piattaforma di motivare la rimozione di un contenuto specificando la normativa di riferimento e non semplicemente la mancata conformità alle proprie policies di notificare il provvedimento assunto all'autore del contenuto rimosso di indicare nel ridetto provvedimento le modalità gratuite offerte all'interessato per opporsi a tale rimozione. A tal fine l'opponente potrà rivolgersi a un mediatore certificato e riconosciuto dall'Autorità Digital Services Coordinator . Meccanismo del notice and action . Lo strumento disposto dagli Euro Deputati per garantire la rimozione senza ritardo dei prodotti, servizi o contenuti illegali prende il nome di notice and action . Quando le piattaforme ricevono una notifica di questo tipo devono agire senza indebito ritardo, tenendo conto del tipo di contenuto illegale oggetto di notifica e dell ' urgenza dell ' intervento . I deputati hanno poi incluso salvaguardie più rigorose per garantire che le notifiche siano trattate in modo non arbitrario e non discriminatorio e nel rispetto dei diritti fondamentali, compresa la libertà di espressione. La valutazione del rischio, misure correttive e audit esterni . La valutazione del rischio dev'essere eseguita per le piattaforme di grandi dimensioni almeno una volta l'anno. I criteri secondo cui deve essere condotta tale valutazione vengono illustrati nella proposta di DSA all'art. 26. Infatti, l'art. 26 stabilisce 1. [ ] almeno una volta all'anno, e in ogni caso prima di lanciare nuovi servizi, le piattaforme online di dimensioni molto grandi individuano, analizzano e valutano efficacemente e diligentemente la probabilità e la gravit à di eventuali rischi sistemici significativi derivanti dalla progettazione, dai sistemi algoritmici, dalle caratteristiche intrinseche, dal funzionamento e dall'uso dei loro servizi nell'Unione. La valutazione del rischio tiene conto dei rischi per ciascuno Stato membro in cui sono offerti i servizi e per l'Unione nel suo insieme, in particolare per una lingua o regione specifica. La valutazione del rischio deve essere specifica per i loro servizi e le loro attività, tra cui le scelte relative alla progettazione tecnologica e al modello aziendale e comprendere i seguenti rischi sistemici a la diffusione di contenuti illegali tramite i loro servizi o di contenuti che violano le condizioni generali b eventuali effetti negativi concreti e prevedibili per l'esercizio dei diritti fondamentali , anche in materia di protezione dei consumatori, relativi al rispetto della dignità umana e della vita privata e familiare , alla protezione dei dati di carattere personale e alla libertà di espressione e di informazione, nonché alla libertà e al pluralismo dei media , al diritto alla non discriminazione e ai diritti del minore, sanciti rispettivamente dagli articoli 1, 7, 8, 11, 21 , 23, 24 e 38 della Carta c qualsiasi malfunzionamento o manipolazione intenzionale del servizio, anche mediante un uso non autentico o uno sfruttamento automatizzato del servizio o rischi inerenti al funzionamento previsto del servizio , compresa l'amplificazione di contenuti illegali, di contenuti che violano le relative condizioni generali o di qualsiasi altro contenuto con ripercussioni negative, effettive o prevedibili sulla tutela dei minori e di altri gruppi vulnerabili di destinatari del servizio , sui valori democratici, sulla libertà dei media , sulla libertà di espressione e sul dibattito civico, o con effetti reali o prevedibili sui processi elettorali e sulla sicurezza pubblica c bis qualsiasi effetto negativo concreto e prevedibile sulla tutela della salute pubblica, nonch é dipendenze comportamentali o altre gravi conseguenze negative per il benessere fisico, mentale, sociale e finanziario della persona. 2. Nello svolgimento delle valutazioni dei rischi, le piattaforme online di dimensioni molto grandi esaminano , in particolare, se e come i loro sistemi di moderazione dei contenuti, le condizioni generali, le norme della comunità, i sistemi algoritmici, i sistemi di raccomandazione e i sistemi di selezione e visualizzazione della pubblicità , nonch é la raccolta, il trattamento e la profilazione dei dati di base influenzano i rischi sistemici di cui al paragrafo 1, compresa la diffusione potenzialmente rapida e ampia di contenuti illegali e di informazioni incompatibili con le loro condizioni generali. 2 bis . Nello svolgimento delle valutazioni dei rischi, le piattaforme online di dimensioni molto grandi consultano, ove del caso, i rappresentanti dei destinatari del servizio, i rappresentanti di gruppi potenzialmente interessati dai loro servizi, gli esperti indipendenti e le organizzazioni della società civile. Il loro coinvolgimento è adattato ai rischi sistemici specifici che la piattaforma online di dimensioni molto grandi intende valutare. 2 ter . I documenti giustificativi della valutazione del rischio sono trasmessi al coordinatore dei servizi digitali del luogo di stabilimento e alla Commissione. 2 quater . Gli obblighi di cui ai paragrafi 1 e 2 non determinano in alcun modo un obbligo generale di sorveglianza . Una volta eseguita la valutazione dei rischi sistemici, le piattaforme procedono a considerare le misure adeguate per l'attenuazione del rischio. Possono decidere per esempio di introdurre risorse appropriate per trattare le notifiche e i reclami interni oppure nei casi più complessi progettano le proprie misure di attenuazione dei rischi con la partecipazione di rappresentanti dei destinatari del servizio, esperti indipendenti e organizzazioni della società civile. Gli audit vengono eseguiti da soggetti esterni indipendenti, riconosciuti dal Digital Services Coordinator. Trasparenza nelle informazioni identificazione dei venditori. Il DSA impone alle piattaforme di e-commerce l ' obbligo di identificare tramite documento di identità i propri venditori imponendo ad essi di pubblicare nominativo, indirizzo, mail, telefono, numero Registro Imprese, partita iva, conto corrente per il pagamento da parte dei clienti. Ove i dati pubblicati risultassero scorretti, il venditore deve essere costretto dalla piattaforma a correggerli immediatamente pena l'esclusione dal marketplace. Trasparenza nella pubblicità mirata identificazione sponsor e logica dell'algoritmo di raccomandazione. Il DSA impone alle piattaforme l'obbligo di avvisare quali sono i contenuti sponsorizzati e di identificarne lo sponsor. Inoltre, il gestore ha l'obbligo di spiegare all'utente perchè vede quel determinato contenuto sponsorizzato e non un altro. Ciò significa che vige l'obbligo di spiegare la logica dell'algoritmo di raccomandazione o di suggerimento degli ulteriori acquisti come accade quando appare l'avviso potrebbe piacerti anche . Inoltre, non è sufficiente limitarsi a rendere trasparente la logica dell'algoritmo ma occorre anche offrire un'alternativa all'utente che non voglia essere profilato. In quest'ultimo caso, all'utente deve essere data la possibilità di accedere alla piattaforma in forma anonima ma pagando un quid oppure accedere senza essere profilato ma accettando di ricevere contenuti sponsorizzati random. Il risarcimento del danno . Gli Euro Deputati hanno stabilito che i destinatari dei servizi digitali e le organizzazioni che li rappresentano siano in grado di chiedere un risarcimento per eventuali danni derivanti dalle piattaforme che non rispettano i loro obblighi di dovuta diligenza. Art. 43- bis . Risarcimento nuovo Fatto salvo l'articolo 5, i destinatari del servizio hanno il diritto di chiedere un risarcimento, conformemente al pertinente diritto unionale e nazionale, ai prestatori di servizi intermediari qualora abbiano subito danni o perdite diretti a seguito di una violazione degli obblighi stabiliti dal presente regolamento da parte dei prestatori di servizi intermediari .