Il Digital Services Act (DSA) è un regolamento dell’Unione Europea che mira a modernizzare e ampliare la Direttiva sul commercio elettronico del 2000, in relazione ai contenuti illegali, alla pubblicità trasparente e alla disinformazione. Approvato il 19 ottobre 2022 ed entrato in vigore il 17 febbraio 2024, il DSA si applica a tutti i servizi intermediari di trasmissione o memorizzazione dell’informazione, come piattaforme online, motori di ricerca e servizi di hosting, offerti nell’UE.
Obiettivi del Digital Service Act
L’obiettivo principale è creare un ambiente digitale più sicuro e affidabile, proteggendo i diritti dei consumatori e promuovendo l’innovazione. In particolare:
- Aggiornare il quadro giuridico dell’UE per i contenuti illegali online.
- Controllare le diverse legislazioni nazionali emerse per affrontare i contenuti non graditi.
- Garantire un ambiente digitale sicuro e affidabile, tutelando i diritti dei consumatori.
- Promuovere l’innovazione e la competitività nel mercato digitale.
In pratica, il DSA si prefigge di contrastare la diffusione di contenuti illegali, la manipolazione delle informazioni e la disinformazione, velocizzando al contempo le procedure per la rimozione dei contenuti illegali e per migliorare il controllo pubblico sulle piattaforme online.
Ambito di applicazione e obblighi per le piattaforme
Il DSA si applica a tutti i servizi intermediari di trasmissione o memorizzazione dell’informazione (piattaforme, motori di ricerca, hosting) offerti a destinatari situati nell’Unione Europea. Riguarda varie tipologie di servizi digitali, tra cui commercio online, social network, piattaforme di condivisione di contenuti, piattaforme di viaggio e alloggio, app store, servizi di intermediazione, servizi di cloud e hosting web. Per queste piattaforme sono stati introdotti nuovi obblighi. Questi sono relativi in materia di trasparenza, obblighi informativi e profili di responsabilità, proporzionati al tipo di servizio offerto e al numero di fruitori (grandezza dell’intermediario). Le piattaforme sono suddivise in quattro categorie: intermediary services, hosting, online platform e very large platform. Tutte le categorie sono interessate da regole restrittive sulla trasparenza delle condizioni di servizio e sulle modalità di controllo dei contenuti. Hanno con l’obbligo di collaborare con le autorità nel denunciare i reati, creare un meccanismo di reclamo, adottare misure contro le segnalazioni abusive e controllare le credenziali di fornitori terzi.
Le piattaforme online e i motori di ricerca di grandi dimensioni (oltre 45 milioni di utenti al mese) devono rispettare, in aggiunta, obblighi più rigorosi. In particolare, è richiesta una maggiore attenzione nella gestione dei rischi, nella condivisione dei dati con le autorità, nella prevenzione dei rischi sistemici e nella sottoposizione ad audit indipendenti.
Sanzioni e tutele speciali
Le sanzioni per le violazioni del Digital Service Act sono rilevanti e possono arrivare fino al 6% del fatturato annuo totale dell’azienda interessata. I destinatari dei servizi digitali, inoltre, possono richiedere un risarcimento per danni, aggravando le conseguenze sanzionatorie. Altre sanzioni, inferiori all’1% dei ricavi annui, possono essere applicate per presentazione di informazioni scorrette, mancata rettifica delle informazioni e mancato assoggettamento ai sopralluoghi.
Il Digital Service Act prevede infine tutele speciali per i minori, vietando il trattamento dei loro dati per fini commerciali e prevedendo una valutazione del rischio sistemico di danni ai minori. È vietato anche l’impiego di tecniche di targeting o amplificazione che trattano i dati personali dei minori ai fini della visualizzazione della pubblicità. Il DSA si basa in pratica sul principio “ciò che è illegale offline deve essere illegale anche online”. Il regolamento impone trasparenza sulla profilazione e sul funzionamento delle piattaforme online, con l’obbligo per i fornitori di collaborare con le autorità e di sottoporsi ad audit indipendenti
Gli effetti del DSA sulla libertà di espressione
Nel Digital Service Act è citato espressamente come obiettivo quello di contrastare e limitare la disinformazione. La domanda, come si dice, sorge spontanea: fin dove è consentito (e auspicato) spingersi nella lotta alla disinformazione, senza limitare la libertà di espressione e/o opinione? Il confine tra corretta informazione e censura diventa molto labile. La censura viene definita infatti come una limitazione della libertà di espressione del pensiero, disposta per la tutela di un interesse pubblico. Questa limitazione non implica l’annullamento della libertà di espressione, ma restringe la possibilità di parlare di alcuni argomenti.
L’entrata in vigore del DSA ha dato il via al dibattito su questo tema, che ultimamente si è ulteriormente acceso in occasione delle elezioni americane con le campagne elettorali di Harris e Trump. Il problema certamente sussiste, e diventa una questione rilevante se prendiamo in considerazione una piattaforma come YouTube.
YouTube non è un giornale
La prima cosa da considerare è che YouTube non può essere considerata una pubblicazione giornalistica. I giornali sono aziende con responsabilità editoriale, una posizione del tutto diversa dove il direttore è penalmente e civilmente responsabile per ciò che viene pubblicato.
I giornali possono scegliere la linea editoriale, quali giornalisti pubblicare e quali articoli non pubblicare. Questa attività editoriale comporta diritti e doveri, incluso l’obbligo di rispondere di eventuali reati commessi attraverso i contenuti pubblicati. YouTube è invece un fornitore di servizi di hosting, simile a quanto può fare un’azienda come Aruba. In base alle normative europee e statunitensi (Direttiva 2000/31/CE e Section 230 del 1996) questi servizi non sono responsabili dei contenuti caricati dagli utenti, a patto che non ne siano a conoscenza e agiscano tempestivamente in caso di segnalazioni di contenuti illegali. YouTube è quindi equiparabile ad una cartiera che produce la carta su cui viene stampato il giornale, dove la linea editoriale è decisa dagli utenti e non dalla piattaforma stessa.
Per ovviare a questo esonero di responsabilità, il DSA ha inserito tutele speciali per queste piattaforme. Nonostante, infatti, YouTube non sia un giornale, opera in regime di monopolio di fatto poiché non ci sono alternative comparabili in termini di visibilità e tecnologia. La normativa cerca in qualche modo di controllare e limitare questa posizione dominante, portando tuttavia ad alcune conseguenze in termini di limitazioni sulle libertà di espressione attraverso pratiche quali la rimozione di canali e la demonetizzazione dei contenuti.
Come funziona YouTube: regolamenti e sanzioni
YouTube ha tre tipi di regolamento: norme della community, copyright e monetizzazione. Le violazioni delle norme della community possono portare a “warning”, “strike” e, in caso di tre strike in 90 giorni, alla chiusura del canale. Le violazioni del copyright possono portare al blocco del video o alla sua demonetizzazione, e dopo tre strike, alla chiusura del canale. Le violazioni delle norme sulla monetizzazione possono portare alla limitazione (icona gialla) o alla demonetizzazione totale del video ed esclusione dal programma YPP, senza chiare soglie o procedure per la rimozione. La monetizzazione funziona tramite un sistema d’asta in cui gli inserzionisti scelgono se visualizzare i loro annunci su video con icona verde (monetizzazione attiva) o anche gialla (monetizzazione limitata). I video ineleggibili non possono invece avere pubblicità. La demonetizzazione non impatta solo sui guadagni, ma anche sulla portata del video, poiché i video demonetizzati vengono visti meno.
Le conseguenze del Digital Services Act (DSA) sulle piattaforme online
Il DSA obbliga le piattaforme online di grandi dimensioni (come Google e YouTube) a moderare i contenuti che potrebbero avere effetti negativi sui processi democratici, il dibattito civico e la sicurezza pubblica. A tal fine, il DSA prevede che le piattaforme possano (e debbano) sopprimere gli introiti pubblicitari per i video che rientrano in questa categoria.
Per raggiungere lo scopo, si prevede l’aiuto dei segnalatori attendibili (o whistleblower), ovvero individui “credibili” e “affidabili” che segnalano le violazioni delle norme stabilite dal regolamento. Si deve trattare ovviamente di segnalazioni basate su informazioni credibili e veritiere, senza intenti diffamatori o malevoli. Per questi soggetti sono previsti standard di protezione legale in tutti gli Stati membri, nonché canali sicuri e riservati per le segnalazioni, garantendo la riservatezza delle informazioni e l’anonimato del segnalatore. I Whistleblower hanno un ruolo importante nel sistema previsto dal DSA, e le piattaforme sono invitate a prendere in seria considerazione le loro segnalazioni.
Dubbi e critiche al DSA
Secondo più parti, il DSA ha generato molta confusione e un eccesso di discrezionalità, poiché i parametri di valutazione dei contenuti sono vaghi e poco chiari. Le piattaforme sono state in sostanza avvertite di dover controllare i contenuti, ma non è specificato con chiarezza cosa devono controllare e cosa no. Il DSA potrebbe trasformarsi dunque in uno strumento per censurare indirizzi politici o sociali specifici, disincentivando determinati contenuti con la demonetizzazione o, in casi estremi, la chiusura del canale.
Esiste, certamente, una distinzione netta tra ambito digitale e fisico: laddove da una parte troviamo le leggi nazionali, dall’altra le regole sono dettate dalle piattaforme. Ma il dibattito sulla differenza tra fatti e opinioni, e su quali opinioni estreme possano essere considerate pericolose e quindi da rimuovere o limitare, non può essere trattato in modi differente. A prescindere dalle opinioni espresse, limitare la libertà di espressione su un qualsiasi argomento rischia di far ripercorrere pericolosi precedenti da cui è d’obbligo mantenere le distanze.