Il Digital Services Act (Regolamento UE 2022/2065) rappresenta il primo grande tentativo di sistematizzare la disciplina dei servizi digitali nell’Unione europea dopo oltre vent’anni dalla direttiva 2000/31/CE sul commercio elettronico.
Dal safe harbour alla responsabilità algoritmica La direttiva 2000/31/CE sul commercio elettronico aveva introdotto un regime di esenzione condizionata da responsabilità per gli intermediari della rete – i noti safe harbours – che aveva permesso lo sviluppo della libertà di impresa online ma aveva, nel tempo, mostrato limiti di adeguatezza rispetto alle nuove forme di intermediazione tecnologica. Il contesto in cui il DSA si inserisce è radicalmente mutato. Oggi, le piattaforme digitali non sono più meri intermediari tecnici, bensì soggetti che modellano il flusso informativo e la visibilità dei contenuti , con effetti diretti sulla formazione dell'opinione pubblica, sulla sicurezza dei cittadini e sul funzionamento dei mercati. Di qui la necessità di un quadro normativo che preservi le libertà digitali, ma assicuri al contempo un regime di responsabilità proporzionato e di vigilanza pubblica effettiva. Il DSA mantiene la logica dell'esenzione di responsabilità, ma vi affianca un insieme articolato di obblighi di diligenza, trasparenza e cooperazione, differenziati a seconda del ruolo e della dimensione dell'intermediario. Tra gli obblighi più innovativi figurano la tracciabilità dei venditori online, la predisposizione di procedure di notice and action per la segnalazione dei contenuti illegali, la creazione di sistemi di reclamo e, per le piattaforme di dimensione molto grande ( VLOP e VLOSE ), l'obbligo di valutare e mitigare i rischi sistemici generati dai propri algoritmi. Il principio che permea l'intera disciplina è quello della accountability digitale : le piattaforme restano libere nella gestione tecnica dei servizi, ma sono chiamate a rendere conto delle loro decisioni, della trasparenza dei sistemi di raccomandazione, della tutela dei diritti degli utenti e della collaborazione con le autorità pubbliche. La nuova architettura istituzionale: il sistema dei Coordinatori dei servizi digitali Una delle novità più significative del DSA è la costruzione di un modello di governance multilivello , fondato sulla cooperazione tra le autorità nazionali e la Commissione europea. L'articolo 49 del Regolamento prevede che ogni Stato membro designi un'autorità indipendente quale Digital Services Coordinator (DSC), dotata di poteri di vigilanza, indagine e sanzione, nonché di competenze di raccordo con le istituzioni europee. Il Coordinatore nazionale opera come punto unico di contatto per gli utenti e per gli altri Stati membri, assicurando l'applicazione uniforme del DSA e coordinando le attività delle altre autorità competenti a livello interno. A livello sovranazionale, i Coordinatori formano il Digital Services Board , un comitato permanente di cooperazione che promuove prassi comuni, linee guida e indagini congiunte. L'impianto così delineato realizza una vera e propria amministrazione europea integrata del digitale , nella quale il potere regolatorio è condiviso e distribuito, ma vincolato da standard comuni di legalità, proporzionalità e trasparenza. L'AGCOM come Coordinatore dei servizi digitali Veniamo a noi. Il legislatore italiano, con il decreto-legge n. 123 del 2023 , ha designato l' Autorità per le Garanzie nelle Comunicazioni (AGCOM) quale Coordinatore nazionale dei servizi digitali . La scelta appare coerente con l'evoluzione del ruolo dell'Autorità, da tempo impegnata nella tutela del pluralismo e nella regolazione dei mercati delle comunicazioni elettroniche. Tuttavia, l'assunzione del nuovo mandato segna un passaggio di rilievo: l'AGCOM si trasforma invero da regolatore settoriale a regolatore sistemico del mercato digitale. Nella sua nuova veste, l'AGCOM è chiamata a garantire l'attuazione del DSA nel territorio italiano, vigilando sull'osservanza degli obblighi da parte dei prestatori di servizi stabiliti in Italia e cooperando con la Commissione nei casi che coinvolgono operatori di grandi dimensioni. Essa può svolgere indagini, acquisire informazioni, disporre ispezioni e adottare provvedimenti correttivi o sanzionatori, fino a comminare sanzioni pecuniarie di importo significativo. Tuttavia, a ben vedere, il ruolo dell'Autorità non si esaurisce nella funzione repressiva. Il DSA le attribuisce poteri di certificazione e riconoscimento : l'AGCOM individua i trusted flaggers (segnalatori attendibili), accredita gli organismi di risoluzione extragiudiziale delle controversie (ADR/ODR) e gestisce le procedure di reclamo presentate dagli utenti. Si tratta di strumenti che rendono l'Autorità il nodo centrale di una rete di soggetti pubblici e privati impegnati nella garanzia della correttezza informativa e nella protezione degli utenti digitali. L'estensione delle competenze e le implicazioni sistemiche L'attribuzione all'AGCOM del ruolo di Coordinatore dei servizi digitali segna un ampliamento delle sue funzioni sia in senso orizzontale – estendendo la vigilanza a settori prima estranei alla sua competenza – sia in senso verticale, rafforzando il suo legame con le istituzioni europee. L'Autorità entra così a far parte del Digital Services Board , contribuendo alla definizione di strategie comuni, alla valutazione dei rischi sistemici e alla predisposizione di linee guida vincolanti per le piattaforme. Tale coinvolgimento accresce la sua autorevolezza, ma comporta anche un aumento delle responsabilità: l'AGCOM deve coordinarsi con la Commissione, con il Garante per la protezione dei dati personali e con l'Autorità garante della concorrenza e del mercato, evitando duplicazioni o conflitti di competenza. La trasformazione è anche culturale. L'AGCOM non è più soltanto un regolatore dei media, ma diventa garante della legalità digitale , un'autorità chiamata a misurarsi con fenomeni come la disinformazione online, la moderazione dei contenuti, la trasparenza degli algoritmi e la prevenzione della manipolazione informativa. Ciò richiede competenze interdisciplinari – giuridiche, tecniche e sociologiche – e una rinnovata capacità di dialogo con la società civile e con gli attori economici. La natura del potere esercitato dall'AGCOM si caratterizza, inoltre, per la sua ibridità . L'Autorità combina funzioni normative, amministrative e quasi-giurisdizionali, chiamata non solo a irrogare sanzioni, ma anche a risolvere controversie e a garantire un equo bilanciamento tra libertà di espressione e tutela dei diritti. La disciplina del DSA impone, in questo senso, una rinnovata attenzione ai principi di proporzionalità, di motivazione e di contraddittorio procedimentale. Le prime applicazioni e le sfide dell'enforcement Le prime esperienze di attuazione mostrano la portata concreta del nuovo modello . L'AGCOM ha approvato, nel 2024, i regolamenti per la qualificazione dei segnalatori attendibili e per la certificazione degli organismi ADR/ODR, nonché la procedura nazionale per i reclami ai sensi dell'articolo 53 del DSA. Tali strumenti costituiscono la base operativa di un sistema di vigilanza diffuso, fondato sulla collaborazione tra autorità pubbliche, organismi indipendenti e piattaforme. L'Autorità è, inoltre, chiamata a intervenire nei casi di rilievo sistemico o transfrontaliero, cooperando con gli altri Coordinatori e con la Commissione europea. Già nella fase iniziale, l'applicazione del DSA ha posto l'AGCOM di fronte a questioni di rilievo politico e giuridico, come nel caso dei reclami relativi ai servizi di ricerca automatica o di generazione di contenuti basati su intelligenza artificiale. Tutela dei diritti fondamentali e controllo giurisdizionale L'esercizio dei nuovi poteri comporta anche un' esigenza di garanzie . L'adozione di ordini di rimozione o di blocco dei contenuti incide direttamente sulla libertà di espressione e sulla libertà d'informazione, imponendo all'Autorità di rispettare il principio di proporzionalità e di motivazione adeguata. La giurisprudenza amministrativa italiana, già chiamata a pronunciarsi su provvedimenti analoghi in materia di pirateria online, costituirà un riferimento per definire i limiti e le forme del potere regolatorio nel contesto digitale. Il 12 novembre 2025: la reazione globale delle piattaforme e la nuova consapevolezza sulla tutela dei minori In questo quadro si inserisce altresì l'urgenza di una regolazione effettiva in materia di accesso dei minori ai contenuti pornografici . Diversi studi internazionali segnalano una diffusione precoce e pervasiva della fruizione di materiale pornografico tra gli adolescenti, accompagnata da implicazioni culturali e psicologiche significative. A livello globale, circa l'88 % degli adolescenti maschi riferisce di aver visionato materiale pornografico almeno una volta, e l'età media del primo contatto con tali contenuti si attesta attorno ai 9-10 anni, con una tendenza crescente verso la precocità. Studi trasversali confermano che, nel complesso, quasi la metà (48,8 %) degli adolescenti tra 12 e 17 anni ha consumato pornografia almeno una volta nella vita, il 28 % nell'ultimo anno e il 22 % nell'ultimo mese. Anche nel Regno Unito, l'Autorità per le comunicazioni (Ofcom) ha rilevato che l'8 % dei bambini tra 8 e 14 anni accede a contenuti pornografici online almeno una volta al mese. A fronte di tali dati, gli Stati europei hanno progressivamente compreso che i divieti formali di accesso risultano inefficaci, poiché i sistemi di autodichiarazione della maggiore età (“clicca se hai più di 18 anni”) non garantiscono alcuna protezione reale. Da qui la decisione di introdurre strumenti tecnici vincolanti, fondati sulla verifica effettiva dell'età. In Italia, a partire dal 12 novembre 2025 , i gestori di siti pornografici dovranno avvalersi di operatori terzi indipendenti incaricati di verificare l'età dell'utente e, se maggiorenne, rilasciare un token anonimo che consenta l'accesso ai contenuti. Il sistema, strutturato secondo il principio del “doppio anonimato”, separa la fase di identificazione da quella di autenticazione, in modo che il prestatore non conosca l'identità dell'utente e il soggetto verificatore non sappia su quale sito venga utilizzata la prova di maggiore età. La Commissione europea ha avviato, infatti, nell'estate del 2025, la sperimentazione di un'applicazione comune di age verification integrata nel Digital Identity Wallet dell'Unione, testata in Italia, Grecia, Spagna, Francia e Danimarca. In Francia, dove le restrizioni sono già operative da giugno, il gruppo Aylo (proprietario di Pornhub, YouPorn e RedTube) ha oscurato i propri siti come forma di protesta, mentre Xhamster ha impugnato il provvedimento dinanzi al giudice amministrativo, che ne ha confermato la legittimità. Analoghi obblighi sono entrati in vigore nel Regno Unito, mentre negli Stati Uniti la Corte Suprema ha confermato la costituzionalità della legge del Texas sull'age verification , con normative analoghe oggi adottate in 24 Stati federati. Il quadro internazionale, insomma, mostra come la regolazione della pornografia online non sia più un tema di mera moralità pubblica, ma una questione di politica del diritto digitale. L'obbligo di verifica dell'età si colloca così al crocevia tra tutela dei diritti dei minori, libertà di espressione e protezione dei dati personali. Per l'AGCOM, questo rappresenta un banco di prova essenziale: la capacità di attuare in modo equilibrato tale sistema determinerà non solo l'effettività della normativa italiana, ma anche la credibilità dell'intero modello europeo di governance responsabile dell'ambiente digitale. Verso un diritto amministrativo delle piattaforme L'esperienza del DSA e la designazione dell'AGCOM come DSC segnano l'inizio di una nuova fase del diritto amministrativo europeo: una fase in cui la regolazione si estende oltre i confini tradizionali dell'intervento pubblico, penetrando nei meccanismi tecnici e algoritmici che governano la società digitale. In questa prospettiva, l'AGCOM assume il ruolo di regolatore del rischio sistemico digitale , garante della correttezza delle interazioni tra utenti, piattaforme e mercato. La sua azione contribuisce a delineare un modello di amministrazione trasparente, basato su dati, audit e cooperazione istituzionale.