top of page

Digital Services Act: misure e criticità


Il Parlamento Europeo è stato chiamato a votare in plenaria, il 19 Gennaio 2022, il Digital Services Act (DSA): un pacchetto di misure volto a migliorare i meccanismi per la rimozione dei contenuti illegali e per una più efficace tutela dei diritti fondamentali degli utenti online, compresa la libertà di parola.

La misura prevede, inoltre, un maggiore controllo delle piattaforme online.


Come il sito del Parlamento Europeo riporta, il Digital Services Act comporta, in sintesi:

  • misure per contrastare beni, servizi o contenuti illeciti online, come un meccanismo per consentire agli utenti di segnalare tali contenuti e alle piattaforme di collaborare con "segnalatori attendibili" (trusted flaggers)

  • nuovi obblighi in materia di tracciabilità degli utenti commerciali nei mercati online, per contribuire a identificare i venditori di beni illegali

  • garanzie efficaci per gli utenti, compresa la possibilità di contestare le decisioni prese dalle piattaforme in merito alla moderazione dei contenuti

  • misure di trasparenza per le piattaforme online su vari aspetti, compresi gli algoritmi utilizzati per le raccomandazioni

  • obbligo per le piattaforme di grandi dimensioni di prevenire qualsiasi abuso dei loro sistemi adottando interventi basati sul rischio e sottoponendo le proprie attività di gestione del rischio ad audit indipendenti

  • accesso dei ricercatori ai dati chiave delle piattaforme più grandi per capire l'evoluzione dei rischi online

  • una struttura di vigilanza che rifletta la complessità dello spazio online: i paesi dell'UE svolgeranno il ruolo principale, sostenuti da un nuovo comitato europeo per i servizi digitali; per le piattaforme di grandi dimensioni, la Commissione interverrà per potenziare la vigilanza e l'applicazione delle norme.

Cionondimeno, non esiste una definizione comune a livello UE di “contenuto illegale” quindi la normativa prevede che si debba ritenere illegale un contenuto non conforme alle disposizioni normative dell'Unione o di uno Stato membro.

Il DSA si rivolge a tutti i prestatori di servizi intermediari e in particolare alle piattaforme online, come i social media e i mercati online.

I prestatori di servizi di hosting devono allora predisporre procedure di notifica e risposta per i contenuti illegali e prevedere la possibilità, per gli utenti, di contestare le decisioni di moderazione dei contenuti assunte sulle proprie piattaforme.


Il testo presenta delle criticità, ciononostante grazie al contributo della Lega è stato contemplato nel testo l’inserimento della durata del conferimento dello status di “segnalatore attendibile” (trusted flagger) da parte del Digital Services Coordinator (l’autorità nazionale, designata da e in ogni Stato membro, responsabile per l’applicazione del Regolamento), non previsto dalla Commissione.


Inoltre, le piattaforme di grandi dimensioni sono obbligate a condurre, almeno annualmente, una valutazione dei rischi sistemici causati da o relativi al funzionamento e all’uso dei loro servizi e ad adottare misure volte a mitigare i rischi come, ad esempio, l’adattamento dei sistemi di moderazione dei contenuti o di raccomandazione, i loro processi decisionali, le caratteristiche o il funzionamento dei loro servizi, i loro sistemi algoritmici sino ai loro termini e condizioni.

Il pericolo, questa volta corso dai cittadini, è che su contenuti/attività dannosi ma non illegali, sarà la piattaforma di grandi dimensioni a determinare dove tracciare la linea tra la libertà di espressione e il diritto all'informazione rispetto al possibile danno causato agli utenti, lasciando alla piattaforma ampio spazio discrezionale.


Un prevedibile effetto boomerang, sarà l’abuso, da parte delle grandi piattaforme, dell’utilizzo di sistemi di moderazione automatica (basati quindi sull’IA). L’azione di mitigazione dei rischi, infatti, impone una sorta di filtraggio, soprattutto per i casi di contenuto illegale, che richiederà uno sforzo di elaborazione dei dati molto sofisticato con una capacità di lettura di dati e capacità di interpretazione che potrebbero comportare un’ulteriore grave minaccia alla libertà di espressione e d’informazione.


L’atteggiamento che mantiene il Gruppo ID rispetto a queste misure resta molto critico, in ogni caso si prevede che la Commissione valuti l'attuazione e l'efficacia delle misure di attenuazione adottate dalle grandi piattaforme e, se necessario, formuli raccomandazioni al riguardo.



bottom of page