Odio online: la libertà di espressione che fa male

da | Mar 18, 2021

Il Web è il contenitore di una gigantesca conversazione. Che spesso degenera in discorso di odio, o hate speech. I social media, sia Facebook sia Instagram, hanno introdotto restrizioni per limitare il fenomeno. Ma manca ancora una legislazione univoca a livello europeo.

Hate speech e Internet

Quando parliamo di odio online, o hate speech, facciamo riferimento a parole e discorsi il cui unico scopo è esprimere odio e intolleranza verso una persona o un gruppo.

Con la diffusione di Internet, comunicare è diventato più rapido e semplice. La Rete ha amplifica la libertà di espressione e la diffusione dei messaggi, compresi quelli di odio.

Le piattaforme digitali oggi compiono scelte importanti per quanto riguarda l’accesso all’informazione, la relativa selezione dei messaggi e quindi la loro diffusione. Le stesse diventano sempre più responsabili di interpretare, a modo loro, il bene per gli utenti. Internet offre molte opportunità ma anche sfide che limitano la libertà di espressione e toccano la dignità umana.

L’odio online si esprime in un contesto in cui la comunicazione è veloce e si muove in spazi i cui confini sono difficili da delimitare. Parlando di hate speech bisogna tenere conto anche dell’ampio numero di attori coinvolti, dell’incertezza e talvolta dell’incapacità di distinguerne ruoli – produttori, diffusori, vittime – ma anche della velocità delle dinamiche di propagazione. Tutti questi elementi contribuiscono alla complessità del fenomeno. Non è solo il contenuto dei messaggi d’odio postati, a fare la differenza. Ma anche il modo in cui vengono diffusi da un gran numero di persone e gli effetti a catena che si possono innescare.

La differenza tra odio online e odio offline

L’UNESCO nel ‘Countering Online Hate Speech‘ identifica quattro differenze sostanziali tra hate speech online e quello offline.

Innanzitutto, la permanenza. La possibilità che le manifestazioni di odio rimangano attive per lunghi periodi di tempo, in formati diversi. E che vengano trasferite tra piattaforme differenti. Prendendo come esempio Twitter, su questo social media sono i trending topics a fomentare la diffusione di messaggi d’odio e a renderli interessanti.

Un’altra differenza è il ritorno imprevedibile dei contenuti di odio online. Rimuovendo il contenuto dal web non si ha comunque la certezza della sua scomparsa. Infatti esso può riapparire in un’altra piattaforma o all’interno della stessa, seppure con una forma diversa o con una diversa intestazione.

L’anonimato o l’utilizzo di pseudonimi o nomi falsi è il terzo elemento che contraddistingue le due forme di odio. E questa è forse una delle differenze più importanti. Infatti avendo la possibilità di agire senza essere identificati, molti utenti si sentono ancora più incoraggiati a esprimere l’odio. Con l’anonimato si pensa di non correre nessun pericolo.

Infine la transnazionalità, cioè l’assenza di confini che permette la diffusione capillare dei messaggi. Essa alimenta il fenomeno dell’hate speech e rende difficile l’emanazione di leggi per combatterlo.

Le misure dell’Unione Europea contro l’odio online

Al momento non esiste una normativa comune a tutti i paesi dell’Unione Europea. Manca anche una definizione unanime sui concetti di hate speech e di istigazione all’odio online. I paesi membri non hanno ancora preso provvedimenti comuni per contenere il fenomeno, per definire i tempi di cancellazione dei messaggi o il ruolo di garanzia della magistratura nella gestione della rimozione dei contenuti quando impatta sulla libertà di espressione.

Nel 2018 la Germania è stata uno dei primi paesi a introdurre normative molto severe nei confronti dei contenuti che celebrano l’odio. Le piattaforme sono sanzionate con multe pesanti in caso di inadempimento della tutela. In questo modo si mira a imporre una maggiore collaborazione con i social network più forti.

Seguendo l’esempio della Germania, la Francia ha elaborato delle leggi simili, che devono ancora essere approvate dal Consiglio Costituzionale.

Gli altri paesi europei – tra cui Polonia, Spagna, Austria e i paesi del Nord Europa – stanno proseguendo con studi e ricerche in questa direzione e nel frattempo hanno lanciato iniziative politiche il cui obiettivo è quello di capire come governare e mitigare questa forma di odio. È nata infatti l’idea di creare consultori, fisici o virtuali, per le vittime e i responsabili dell’odio online. Il tutto collaborando con le piattaforme social.

Il Mercato unico dei servizi digitali

Di recente c’è stato un tentativo di uniformare e regolamentare questa mancanza di legge comune. Il 15 dicembre 2020 la Commissione Europea ha pubblicato la Proposta di Regolamento del Parlamento Europeo e del Consiglio sul Mercato unico dei servizi digitali (abbiamo parlato di Mercato unico digitale anche nel nostro racconto sul secondo seminario organizzato da Iusintech, a proposito delle nuove abilità delle macchine intelligenti. Nel nostro racconto sulle ‘Macchine che imparano’ si parla di algoritmi, intelligenza artificiale, dati e privacy. Trovi tutto qui, nell’articolo intitolato ‘Intelligenza come apprendimento, apprendimento come cambiamento’).

L’obiettivo prospettato è quello di «stabilire regole uniformi per un ambiente online sicuro, certo e affidabile, dove i diritti fondamentali sanciti dalla Carta siano effettivamente protetti». Così si legge nella proposta di Regolamento. Per raggiungere questo obiettivo si introducono nuovi obblighi di necessaria diligenza e nuovi meccanismi di cooperazione e coordinamento tra le autorità competenti per l’attuazione e il rispetto degli obblighi del Regolamento.

Hate speech online e limiti tecnologici

Quando si cerca di identificare e contenere l’hate speech online, è importante considerare le difficoltà dovute ai limiti umani e tecnologici. Infatti i programmi utilizzati per analizzare ogni giorno i post pubblicati sui social network e individuare i discorsi d’odio vengono addestrati su una banca dati creata da essere umani. E gli individui possono essere più o meno sensibili a certi temi, così come comprendere l’intento ironico di un determinato contenuto e non di un altro.

La comprensione del linguaggio naturale presenta ancora qualche problema per i computer, nonostante i progressi raggiunti negli ultimi anni. Il linguaggio naturale può infatti risultare ambiguo. Per di più sui social network, specialmente su Twitter, si utilizzano testi brevi che spesso presentano errori di ortografia, slang, parole nuove, abbreviazioni, hashtag ed emoji. Si fa ricorso quindi a un linguaggio informale, più simile al parlato. Inoltre l’utilizzo di metafore, sarcasmo o ironia possono dare un significato completamente diverso alla frase.

Intelligenza artificiale e linguaggio naturale

L’identificazione di chi ha pronunciato una frase e il contesto in cui è essa viene utilizzata sono importanti per comprendere correttamente ciò che è stato affermato. Tutti questi elementi rendono quindi complicato il monitoraggio del fenomeno dell’odio online.

Nonostante il grande contributo alla riduzione di odio sulle piattaforme, l’intelligenza artificiale fatica ancora ad avere una piena comprensione del linguaggio umano. Al momento il risultato migliore si ottiene ancora dalla combinazione di lavoro umano e lavoro di intelligenza artificiale.

A proposito di linguaggio naturale, Paolo Costa ci parla di emozioni, AI e Natural Language Processing (NPL) nel suo ultimo contributo. Un’ampia riflessione presentata durante il suo intervento al terzo appuntamento del ciclo di seminari organizzati dal già citato Iusintech. Imperdibile, qui.

Come l’AI può contribuire alla lotta contro l’hate speech

Facebook sta lavorando alla rimozione dei contenuti in cui si incita all’odio. E questo è anche possibile grazie a due importanti aggiornamenti fatti ai sistemi di intelligenza artificiale.

Il primo riguarda la disponibilità di dataset e modelli di linguaggio naturale che permettono una maggiore comprensione del significato e delle sfumature di un post. Questi modelli, grazie al continuo progresso nella ricerca, consentono alle reti neurali di essere addestrate senza alcuna supervisione. Viene così eliminata la necessità della presenza umana per il controllo dei dati.

Il secondo aggiornamento riguarda la capacità di analizzare contenuti combinati, cioè composti da differenti tipologie di media – testo, immagini, video, audio.

E, rimanendo in tema di odio e intelligenza artificiale, negli anni passati avevamo scritto di come vengono create le fake news, qui il link all’articolo. E qui a proposito di fake news spinte dagli algoritmi di Facebook. Abbiamo approfondito ulteriormente la tematica, raccontando il mondo delle deep fakes – la nuova frontiera delle fake news – e del microtargeting delle informazioni, in questo articolo.

Facebook e l’odio online

Secondo quanto riportato dal Network Digital 360, Facebook dichiara di aver rimosso il 97% dei contenuti di odio individuati da sistemi di intelligenza artificiale. Si tratta di una percentuale che è cresciuta rispetto agli anni precedenti. Alla fine del 2019 i contenuti rimossi erano l’80,5% mentre nel 2017 solo il 24%.

Anche per quando riguarda il bullismo, la percentuale di contenuti rimossi grazie all’utilizzo dell’AI, è in crescita. Su Facebook si è passati da un 26% nel terzo trimestre del 2020, al 49% nel quarto trimestre; mentre su Instagram dal 55%, all’80%.

Grazie all’intelligenza artificiale, ci sono stati progressi anche nel modo in cui i sistemi funzionano in più lingue. In questo modo i contenuti di incitamento all’odio rimossi hanno raggiunto i 26,9 milioni, rispetto ai 22,1 del trimestre precedente.

La società affronta anche i post politici, fonte di tensione soprattutto durante le campagne elettorali. Facebook infatti ha deciso di presentare meno contenuti politici nel flusso di notizie. «Durante questi test esploreremo diversi modi per classificare i contenuti politici nei feed degli utenti, poi decideremo gli approcci da utilizzare in futuro», ha dichiarato il direttore della gestione del prodotto Aastha Gupta. Il colosso statunitense applicherà questa nuova strategia politica su un numero ridotto di paesi tra cui Canada, Brasile, Indonesia e Stati Uniti.

Questa nuova modalità non limiterà le informazioni sul Covid-19 e sui contenuti delle organizzazioni sanitarie globali. Servirà solo a contenere i contenuti politici, per fare sì che questi non prevalgano sugli altri nel flusso di notizie degli utenti.

L’odio online e la tutela per i giornalisti su Facebook

Per offrire una maggiore protezione ai giornalisti, arriva anche in Italia una registrazione su Facebook specifica per questi professionisti. L’iscrizione permette a tutti coloro che lavorano per una testata, come dipendenti o freelance, di iscriversi al social media e accedere a funzionalità di sicurezza che proteggono ulteriormente il profilo.

Ai giornalisti registrati volontariamente, il social fornirà l’accesso a CrowdTangle Search – una piattaforma di analisi dei contenuti e monitoraggio delle prestazioni – e la possibilità di richiedere il blue badge di verifica (per maggiori informazioni, puoi trovarle qui).

La registrazione era stata lanciata a giugno 2020 in un numero di paesi ristretto tra cui USA, Messico, Brasile e Filippine. Poi successivamente estesa ad altri paesi, tra cui l’Italia, apportando alcuni aggiornamenti rispetto alle funzionalità iniziali.

Per registrarsi sono necessari alcuni requisiti. Nel caso di un dipendente, la testata giornalistica deve essere registrata come pagina su Facebook e fornire un indirizzo e-mail che corrisponde al dominio della testata giornalistica. I freelance invece, devono fornire il link a cinque articoli di cui sono accreditati come autori o collaboratori di una testata registrata come pagina di notizie su Facebook.

«La registrazione rappresenta l’impegno di Facebook per poter meglio sostenere i giornalisti sulla propria piattaforma – spiega la società – continueremo a lavorare con le testate giornalistiche, gli accademici e le imprese per trovare altri modi per supportare i giornalisti registrati».

Instagram e l’aggiornamento delle policy sull’odio

La policy di Instagram afferma che in tema di hate speech non è accettato alcun tipo di insulto od offesa rivolta su base etnica o religiosa. L’anno scorso queste leggi sono state rafforzate con l’adozione di provvedimenti immediati. Tali provvedimenti vengono messi in atto nel momento in cui la piattaforma si rende conto di essere davanti a una forma di hate speech. Nel frattempo, continuano a migliorare gli strumenti per l’identificazione di questo tipo di disagio, in modo da poter agire il più in fretta possibile.

In base a quanto affermato da Instagram stesso, tra luglio e settembre dello scorso anno sono riusciti a intervenire contro 6,5 milioni di contenuti sull’hate speech sul social, inclusi i direct. Nel 95% dei casi sono stati rimossi ancora prima di essere segnalati.

Per coloro che non rispettano le regole dei direct, praticando forme di hate speech o bullismo, Instagram introduce ulteriori restrizioni. Prima di esse, al mittente che violava la regolamentazione si impediva di inviare altri messaggi per un determinato periodo di tempo. Le nuove norme prevedono la disabilitazione diretta dell’account. E lo stesso accade nel momento in cui si crea un profilo per aggirare le limitazioni imposte sui direct.

Limitare i commenti lesivi

Su Instagram gli utenti possono tutelarsi anche dai commenti indesiderati. Come? Esiste la possibilità di ricorrere all’utilizzo di filtri che impediscono agli utenti di lasciare messaggi offensivi attraverso l’utilizzo di parole, frasi o emoji. L’anno scorso Instagram ha introdotto una nuova funzione che permette di cancellare in gruppo commenti o di bloccare, sempre in gruppo, gli account che li hanno pubblicati. La riduzione dei commenti offensivi è anche una conseguenza dell’utilizzo dell’AI che avvisa le persone quando stanno per pubblicare contenuti potenzialmente lesivi.

È invece più difficile fare in modo che le persone non visualizzino gli hate speech, visto che stiamo parlando di conversazioni private. I proprietari di account che hanno un elevato numero di follower, ricevono un maggior numero di messaggi offensivi. Per ovviare, in parte, a questo problema possono disattivare i direct delle persone che non seguono.

Beatrice Mingazzini
Beatrice Mingazzini
Laureata in economia e management per arte, cultura e comunicazione, è specializzata in design e moda. Appassionata del viaggio on the road, sempre alla scoperta di qualcosa di nuovo, nel tempo libero le piace sperimentare tecniche di pittura.

Potrebbe piacerti anche

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Dal 17 ottobre 2024 la NIS 2 è pienamente vigente. La direttiva introduce nuove regole per la sicurezza informatica delle infrastrutture critiche e dei servizi essenziali in Europa. Le aziende nei settori energetico, sanitario, delle telecomunicazioni e altri sono chiamate ad adeguarsi a standard più elevati. Chi è impattato, i rischi di non conformità e il ruolo di Spindox nell’aiutare i clienti a migliorare la propria sicurezza.

I principali trend di Intelligenza Artificiale per il 2025

I principali trend di Intelligenza Artificiale per il 2025

Il campo dello sviluppo software sta subendo una trasformazione radicale grazie all’intervento dell’Artificial Intelligence. L’AI non sta solo automatizzando le attività, sta diventando un assistente indispensabile, migliorando l’efficienza e la qualità del codice. Ma quali sono le aree chiave in cui l’Intelligenza Artificiale sta rivoluzionando la programmazione?