Toxic Web e post-verità: disinformazione e hate speech tra social deregulation e fine del fact checking online

Francesco Scarpelli

7 Febbraio 2025

Francesco Scarpelli

7 Febbraio 2025

Internet e i social media hanno trasformato il modo in cui ci relazioniamo, condividiamo idee e costruiamo comunità. Questi spazi, basilari nella formazione dei discorsi collettivi, sono spesso inquinati da contenuti irregolari, dinamiche aggressive e interazioni che molti esperti non esitano a definire “tossiche”.
Questo breve studio, che pubblichiamo in sei approfondimenti, prende in esame il fenomeno in modo interdisciplinare, così da fornire a chi opera in modo attivo sul web un quadro che possa orientare al meglio le sue strategie e le sue
policy di comunicazione.


Dopo un’intensa giornata al computer Chiara P., impiegata trentenne, pubblica una foto in costume, nostalgica della sua vacanza estiva. Durante il tragitto verso casa, poco dopo, il suo telefono inizia a vibrare.
Sono notifiche di messaggi privati e di commenti sotto il suo post. Chiara legge derisioni, prese in giro, fraintendimenti e ammiccamenti, attacchi gratuiti e offensivi. Un gesto scontato, di riflesso, automatico e immediato, la fa sentire vulnerabile e turbata, e le rovina la serata.

La circostanza vissuta da Chiara non è isolata, anzi, è piuttosto comune.
Una ricerca demoscopica di Amnesty International, condotta tra il 2017 e il 2019 in otto diversi Paesi, ha rilevato che il 23% delle donne intervistate ha subito molestie online almeno una volta. Secondo l’ISTAT invece, nel 2023 in Italia il 6,4% delle donne tra i 14 e i 70 anni ha dichiarato di aver subito abusi o molestie online, con una prevalenza tra adolescenti e persone con disabilità.

Episodi di questo tipo sono talmente frequenti che il 6 dicembre 2024 un giudice del tribunale di Torino, archiviando una querela per diffamazione online, ha stabilito che gran parte degli insulti non è più perseguibile sul web, poiché commentare “con toni robusti, sarcastici, polemici o inurbani” è un comportamento “abituale e diffuso”.

Contenuti Tossici Online: definizioni e normative, al confine tra etica e legalità

A partire dal primo decennio 2000, il composto linguistico di “contenuto tossico online” è studiato e descritto nella letteratura accademica e nei report di policy tecnologica, usato per riferirsi ad atteggiamenti, comunicazioni e comportamenti che danneggiano gli individui o le comunità digitali. 

La loro classificazione di massima si articola quasi sempre in base alla natura del gesto o del danno.

Linguaggio offensivo o dannoso
Insulti, hate speech (discorsi d’odio), contenuti che denigrano le persone sulla base di razza, genere, orientamento sessuale, religione o altre caratteristiche, minacce.

Disinformazione e manipolazione
Diffusione di informazioni false o fuorvianti con l’intento di ingannare o manipolare l’opinione pubblica.

Cyberbullismo e molestie
Atti ripetuti di abuso o persecuzione verso altri individui attraverso messaggi, commenti o immagini.

Contenuti violenti o estremisti
Contenuti intolleranti, che glorificano la violenza, promuovono il terrorismo o altre forme di radicalizzazione.

Sessismo, misoginia e contenuti di abuso di genere
Contenuti che ridicolizzano, discriminano o abusano delle donne e delle minoranze di genere.

Trolling e comportamento antisociale
Interazioni o messaggi deliberatamente provocatori o distruttivi, ideati per disturbare discussioni e accendere o alimentare conflitti.

Definizioni operative

Piattaforme come Facebook, X e Reddit utilizzano definizioni operative, basate su criteri misurabili e applicabili, sia per le persone che per i sistemi IA integrati, in fase di moderazione dei contenuti, e non si discostano da quelle sopra elencate.
Affidando la moderazione esclusivamente a sistemi di intelligenza artificiale, le piattaforme affrontano sfide crescenti, poiché tali strumenti, infinitamente più veloci dei moderatori umani, mancano ancora della capacità funzionale necessaria a distinguere in modo sottile ed efficace tra contenuti ironici, critici o realmente dannosi.
Tornando ai criteri generali correnti, essi si basano soprattutto sulle definizioni di ‘discorsi d’odio’ e ‘contenuti dannosi’ fornite da organismi internazionali come le Nazioni Unite e il Consiglio d’Europa, nonché su normative specifiche come il Digital Services Act, che affronta il tema dei contenuti dannosi o illegali

Fenomeni come disinformazione, ostilità, esclusione, abuso, sono definiti tossici quando minacciano il benessere psicologico e sociale delle persone online, rendendo l’ambiente digitale non solo disfunzionale, ma anche pericoloso. Pur regolamentate dalle specifiche condizioni d’uso sottoscritte dagli utenti, da precise social media policy e da dettagliate linee-guida di moderazione, le piattaforme social catalizzano tutto il campionario di comportamenti tossici e molesti a distanza.
In tal senso, la scelta di Meta di rinunciare al fact-checking per contenuti politici e di opinione ha riacceso il dibattito sulla responsabilità delle piattaforme nella moderazione, esacerbando il rischio specifico di amplificazione della disinformazione e del linguaggio tossico.

Vittime e bersagli

Diffamazioni, offese, insulti nei commenti, vessazioni, minacce e stalking digitale, possono arrivare a costituire veri e propri reati. Secondo un’indagine condotta dall’autorevole Pew Research Center, nel 2021 il 40% degli utenti social ha dichiarato di aver subito abusi online: il dato è in crescita da dieci anni a questa parte, con una prevalenza significativa tra donne e adolescenti. Sono numeri che colpiscono, e spingono a implementare misure efficaci per proteggere le persone più vulnerabili, anche se gli episodi criminosi rappresentano estremi già perseguibili. 

Codici, Leggi, Normative

Minacce, diffamazione e altre forme di offesa o incitamento all’odio, infatti, sono reati di opinione, regolamentati dal Codice Penale anche nel contesto digitale. La diffamazione addirittura è punita con pene più severe, se commessa attraverso mezzi di diffusione come i social, considerati amplificatori del danno, mentre le minacce in ambiente virtuale sono sanzionate con pene che variano a seconda della loro gravità. 

La legge Mancino contrasta i discorsi di odio o incitamento alla discriminazione per motivi razziali, etnici, religiosi o di altro tipo, anche online; strumenti come il Codice della Privacy e il GDPR tutelano invece contro la diffusione non autorizzata di dati personali.

La legge contro il cyberbullismo (2017) prevede misure specifiche di prevenzione e contrasto, inclusa la possibilità, per le vittime, di richiedere la rimozione di contenuti lesivi. Sempre il Codice Penale sanziona reati come la diffusione di materiale pedopornografico e il grooming, o adescamento online, mentre il Codice della Privacy aggiornato al GDPR impone regole rigorose sul trattamento dei dati personali dei minori.

La legge contro il revenge porn (2019) punisce la diffusione non consensuale di contenuti intimi o sessualmente espliciti. Chiunque divulghi immagini o video privati, senza il consenso della persona ritratta, rischia la reclusione da 1 a 6 anni e una multa da 5.000 a 15.000 euro. La pena è aggravata se il fatto è commesso da un partner o ex partner, o tramite strumenti digitali.

La Carta dei Diritti di Internet, infine, e iniziative come il Safer Internet Centre, promuovono la creazione di ambienti digitali più sicuri, sensibilizzando gli utenti e fornendo strumenti di supporto.

Codici, normative e centri di studio, più o meno recenti, uniti a campagne di educazione digitale, mirano a garantire una navigazione più sicura ai soggetti vulnerabili.

Le dinamiche tossiche a cui assistiamo, però, non sono tutte perseguibili. Al di là della mancanza di risorse e strumenti adeguati alla prevenzione, al controllo e alla eventuale rimozione dei contenuti annessi, molte di queste dinamiche non configurano veri e propri illeciti, individuali o collettivi, e derivano viceversa da problematiche strutturali e culturali radicate non solo nell’ambiente digitale, ma anche nella psicologia individuale e nelle dinamiche sociali in atto.

Analfabetismo di ritorno e digitale 

Una di queste, tra le più rilevanti, è l’analfabetismo di ritorno, che è anche analfabetismo digitale. Secondo la più recente indagine OCSE sulle competenze degli adulti, pubblicata a dicembre 2024, oltre un terzo degli italiani adulti è analfabeta funzionale, cioè presenta capacità limitate di comprensione di testi, di calcolo e utilizzo di informazioni numeriche. Lo studio attuale ci colloca al sestultimo posto dei paesi censiti, seguiti solo da Israele, Lituania, Polonia, Portogallo e Cile, con punteggi al di sotto della media in ambiti come alfabetizzazione, calcolo matematico e problem solving adattivo. Il divario generazionale è marcato: i giovani di 16-24 anni mostrano punteggi superiori rispetto ai più anziani, segnalando una perdita di competenze con l’avanzare dell’età, quando la mancanza di pratica quotidiana riduce i comportamenti proattivi e critici tipici dello studio e del lavoro. 

Più in particolare, l’analfabetismo digitale riguarda competenze limitate o nulle nell’uso delle tecnologie IT e Internet. 

Secondo i dati più recenti dell’Istat, nel 2023, il 45,9% degli adulti italiani possiede competenze digitali almeno di base, mentre il 36,1% ha competenze insufficienti e il 5,1%, pur essendo utente di Internet, non ha alcuna competenza digitale. Meno della metà della popolazione adulta in Italia, insomma, ha competenze digitali adeguate, posizionando il Paese circa dieci punti percentuali sotto la media europea.
L’analfabetismo digitale si intreccia oggi con la diffusione di contenuti ‘mimetici’ generati dall’intelligenza artificiale, che, pur essendo spesso convincenti, rischiano di alimentare confusione e disinformazione tra utenti meno preparati a distinguere il vero dal falso.

Va detto infine che sopra i 55 anni, un individuo su quattro non ha esperienza nell’uso del Pc.  Gli smartphone in tal senso non compensano, poiché la prossemica tra strumento e persona induce a ‘guardare’ e ‘scorrere’, piuttosto che analizzare e approfondire.
I numeri incredibili macinati dai contenuti brevi o brevissimi di TikTok, Instagram e YouTube sono esemplificativi di tale tendenza che potrebbe definirsi ‘spontanea’, non fosse che design e architetture sono elaborate per esaltare tali caratteristiche di fluidità e bi-univocità di utilizzo.

Spazzatura del cervello

Ciò che non è spontaneo, ma piuttosto consequenziale, è il risultato che un’esposizione prolungata a contenuti brevi e brevissimi, più o meno tossici, ripetitivi e poco stimolanti può produrre a livello intellettivo.
Un altro termine composto, inglese, è cresciuto del 230% nell’uso corrente in un solo anno, tra il 2023 e il 2024, ed è usato per descrivere quel risultato: si tratta di ‘Brain Rot’. Azzardando una traduzione letterale, significa “spazzatura del cervello”, o “marcio mentale”, ed è stato scelto come Parola dell’Anno 2024 dall’Oxford University Press. La semantica è eloquente, per quanto colorita, e fa riferimento al  deterioramento mentale. 

Nonostante la sua recente popolarità, ‘brain-rot’ non è un termine nuovo. La sua prima comparsa risale al 1854, quando H.D. Thoreau lo utilizzò nel suo romanzo filosofico Walden per criticare la tendenza della società a svalutare le idee complesse.  Nell’era digitale, oggi, il termine ha acquisito nuovo significato, diventando comune tra le comunità online, per descrivere gli effetti del consumo eccessivo di contenuti di bassa qualità sui social media.

Una scelta, quella di Oxford, che evidenzia la crescente consapevolezza per l’impatto che la vita digitale può avere sul benessere mentale e intellettuale. 

Donne penalizzate

In Italia è consistente anche la questione di genere, il 30% delle donne non ha mai utilizzato un PC, rispetto al 19% degli uomini: una disparità attribuibile a stereotipi di genere e a una minore partecipazione femminile nei settori tecnologici anche se, per fortuna, il trend si sta invertendo e sempre più giovani studentesse intraprendono percorsi accademici e di carriera in ambito di materie tecnico scientifiche (STEM). 

Infantilismo digitale e polarizzazione

L’assenza, o la perdita progressiva di competenze digitali, linguistiche e critiche, contribuisce a modalità di comunicazione impulsive, superficiali e polarizzate, riducendo la capacità di comprendere testi e ipertesti complessi e di conseguenza di distinguere tra fatti, opinioni e manipolazioni. La polarizzazione, accentuata dagli algoritmi dei social media, alimenta un effetto ‘echo chamber’ in cui gli utenti sono esposti solo a opinioni affini alle proprie, riducendo ulteriormente la capacità di confrontarsi con prospettive diverse. La scarsità di vocabolario rende più difficile esprimere idee articolate o punti di vista sfumati, e ciò favorisce comunicazioni a volte violente, spesso espresse senza misura, insulti e meme irridenti che alimentano la tossicità.

L’incapacità di argomentare in modo adeguato inoltre, si trasforma facilmente in frustrazione, spingendo gli utenti verso comportamenti risentiti, aggressivi, tossici.

Chi non ha sviluppato o ha perso l’abitudine alla lettura e all’analisi critica è più vulnerabile agli episodi e alle campagne di disinformazione, che sfruttano toni emozionali, sensazionalistici e divisivi. Ciò aumenta la polarizzazione, poiché le persone difendono con veemenza opinioni basate su informazioni false, incomplete o pregiudiziali.

Una indotta condizione di “infantilismo digitale” limita la capacità di percepire e riconoscere la complessità altrui, riduce l’empatia e favorisce ‘bullismi’ e prevaricazioni verbali.

Promuovere l’alfabetizzazione digitale, incentivare la lettura e la comunicazione critica e riflessiva, aiuta persone e community a ‘crescere’, e di conseguenza può mitigare questi problemi attitudinali. Programmi educativi mirati, insieme al design e responsabile delle stesse piattaforme, possono favorire migliorate interazioni, e attitudini al dialogo più costruttive e rispettose del prossimo.

Accanto ai programmi educativi, è essenziale che le piattaforme adottino un design strategico etico e responsabile, collaborando con imprese e società per sviluppare standard condivisi capaci di ridurre la tossicità e promuovere interazioni rispettose.


Nel prossimo appuntamento parleremo di bot e false identità, di rinuncia al fact checking, di algoritmi e post-verità, di engagement e Cancel Culture.


Fatevi
sentire.

La vostra crescita parte da qui. Senza obblighi, senza bisogno di dettagli, iniziamo a conoscerci. Scriveteci e vi contatteremo, pronti ad ascoltare. E a proporre. Scoprirete cosa Viralbeat può fare per voi.