Recentemente, la Commissione Europe ha reso note le sue conclusioni preliminari nell’ambito dei procedimenti formali avviati ai sensi del Regolamento 2022/2065 relativo a un mercato unico dei servizi digitali (i.e. Digital Services ACT, “DSA”), contestando presunte violazioni degli obblighi di trasparenza e procedurali a carico di TikTok e Meta in relazione alle piattaforme Facebook e Instagram.
Le risultanze, pur non pregiudicando l’esito finale dell’indagine, evidenziano problematiche strutturali nella conformità delle piattaforme al DSA in relazione a: accesso ai dati per i ricercatori; meccanismi di segnalazione di contenuti illegali (c.d. Notice and Action); gestione dei ricorsi per la moderazione dei contenuti. Le Conclusioni rese note dalla Commissione seguono ai procedimenti formali in corso e avviati nel 2024 sia contro Meta che contro TikTok ai sensi del DSA. La Commissione ha sottolineato che l’ indagine prosegue attivamente , includendo l’esame di altre potenziali violazioni non ancora oggetto delle attuali Conclusioni. L’ obiettivo generale di queste azioni, come evidenziato dal Vicepresidente Esecutivo Henna Virkkunen, è garantire che le piattaforme: siano responsabili dei loro servizi; rispettino i diritti degli utenti ; aprano i loro sistemi al controllo pubblico , rendendo la trasparenza e la scrutiny un dovere imposto dalla legge UE. Tali procedimenti formali sono, inoltre, distinti da eventuali altre indagini in corso contro Facebook, Instagram e TikTok relative ad altre normative UE pertinenti. Le Conclusioni si concentrano su specifiche aree di non conformità , alcune delle quali comuni a Tiktok e Meta e altre specifiche per Meta. Obblighi Comuni a TikTok e Meta: accesso ai dati per i ricercatori La Commissione ha riscontrato preliminarmente che sia TikTok sia Meta (per Facebook e Instagram) potrebbero aver violato l’obbligo di garantire ai ricercatori un accesso adeguato ai dati pubblici. In particolare, le Conclusioni mostrano che Facebook, Instagram e TikTok potrebbero aver implementato procedure e strumenti che risultano onerosi o gravosi per i ricercatori che richiedono l’accesso ai dati pubblici. Queste procedure gravose spesso forniscono ai ricercatori solo dati parziali o inaffidabili . Ciò limita in modo significativo la loro capacità di condurre ricerche essenziali, come ad esempio valutare se gli utenti – inclusi i minori – siano esposti a contenuti illegali o dannosi. L’obbligo di consentire l’accesso ai dati delle piattaforme è una disposizione cruciale di trasparenza prevista dal DSA, in quanto permette il controllo pubblico sull’impatto potenziale che le piattaforme possono avere sulla salute fisica e mentale degli utenti. Si segnala ulteriormente che l’accesso ai dati dei ricercatori è un’area di interesse prioritaria per la Commissione. Difatti, il 29 ottobre 2025 entrerà in vigore l’atto delegato sull’accesso ai dati (“Atto Delegato”), che garantirà l’accesso ai dati non pubblici delle piattaforme e dei motori di ricerca di dimensioni molto grandi, rafforzando così l’obbligo di accountability e l’identificazione di potenziali rischi sistemici derivanti dalle loro attività nonché di misure di mitigazione. L’ Atto Delegato stabilisce : le condizioni tecniche e armonizza le procedure per la gestione del processo di accesso ai dati; le informazioni che i coordinatori dei servizi digitali, le piattaforme online di dimensioni molto grandi e i motori di ricerca online di dimensioni molto grandi devono rendere pubbliche per facilitare l’accesso dei ricercatori abilitati alle pertinenti serie di dati. Inoltre, la Commissione ha lanciato il portale di accesso ai dati del DSA in cui i ricercatori interessati ad accedere ai dati possono trovare informazioni e scambiarle con le piattaforme online di dimensioni molto grandi sulle loro applicazioni di accesso ai dati. Obblighi Specifici di Meta (Facebook e Instagram) La Commissione ha riscontrato presunte violazioni specifiche a carico di Meta relative a Facebook e Instagram, incentrate sulla facilità d’uso e sull’efficacia delle procedure utente per la moderazione dei contenuti. Meccanismi di Segnalazione e Azione (Notice and Action) Per quanto riguarda Meta, la Commissione ha rilevato che né Facebook né Instagram sembrano fornire un meccanismo di Notice and Action facilmente accessibile e user-friendly che consenta agli utenti di segnalare contenuti illegali, quali materiale terroristico o abusi sessuali su minori. I meccanismi attualmente adottati da Meta paiono imporre agli utenti passaggi superflui e richieste aggiuntive non necessarie . Inoltre, sia Facebook che Instagram sembrano fare uso di “dark patterns” (c.d. modelli di interfaccia ingannevoli) in relazione ai meccanismi di Notice and Action. Tali pratiche possono generare confusione e risultare dissuasive per l’utente. Di conseguenza, i meccanismi di Meta volti a segnalare e rimuovere i contenuti illegali potrebbero rivelarsi inefficaci. I meccanismi di Notice and Action sono fondamentali ai sensi del DSA per consentire agli utenti dell’UE e ai ricercatori interessati (c.d. trusted flaggers) di informare le piattaforme di contenuti che non rispettano le leggi nazionali o dell’UE. La mancata rapida azione da parte delle piattaforme dopo essere state informate della presenza di contenuto illegale comporta la perdita dell’esenzione di responsabilità prevista dal DSA. Meccanismi di Ricorso per la Moderazione dei Contenuti (Appeals) Il DSA conferisce agli utenti dell’UE il diritto di contestare le decisioni di moderazione dei contenuti intraprese dalle piattaforme, come la rimozione di contenuti o la sospensione dell’account. Le conclusioni preliminari evidenziano che i meccanismi di ricorso decisionale di Facebook e Instagram non sembrano consentire agli utenti di fornire spiegazioni o prove a sostegno dei loro ricorsi. Questa limitazione rende difficile per gli utenti dell’UE giustificare ulteriormente il motivo del loro disaccordo con la decisione di Meta, limitando di fatto l’efficacia del meccanismo di ricorso. Le valutazioni della Commissione relative agli strumenti di segnalazione, ai dark patterns e ai meccanismi di reclamo di Meta sono il risultato di un’indagine approfondita, condotta anche in collaborazione con Coimisiún na Meán, i.e. il Coordinatore dei Servizi Digitali irlandese. In conclusione Meta e TikTok hanno ora la possibilità di esaminare i documenti in possesso della Commissione in relazione all’indagine. Qualora le Conclusioni della Commissione venissero definitivamente confermate al termine dell’indagine, la Commissione potrà adottare una decisione di non conformità con possibile irrogazione di sanzione amministrativa fino al 6% del fatturato annuo globale totale del fornitore della piattaforma. La Commissione ha altresì la facoltà di imporre sanzioni pecuniarie periodiche per obbligare le piattaforme a conformarsi agli obblighi previsti dal DSA