Viralbeat Digital Agency

Beyond Toxicity. Come ridurre le tossicità online? Ripensare responsabilità e strategie nell’ecosistema digitale

La tossicità online non è solo un fenomeno da osservare e descrivere, ma un problema sociale urgente che richiede risposte concrete e multidisciplinari. Questo post conclusivo, propone alcuni cambi di prospettiva, esplorando gli studi più recenti e integrando visioni provenienti dal marketing, dalla sociologia e dall’intelligenza artificiale, per focalizzare soluzioni concrete e tracciare una roadmap capace di ridurre le dinamiche tossiche. La chiave non sta nella semplice moderazione, e tantomeno nell’attribuire tutte le responsabilità a utenti e piattaforme, bensì nell’adozione di strategie proattive, condivise e guidate da principi etici, che sappiano coniugare capacità umane e potenzialità tecnologiche.


Critiche etiche. No al negazionismo, multidisciplinarietà e responsabilità condivise

Molte aziende sono accusate di sfruttare dinamiche tossiche o di peggiorare il clima sociale. In particolare, il rischio è che queste strategie , anziché contribuire a un discorso pubblico sano e dialettico, favoriscano un marketing divisivo anche quando le intenzioni di comunicazione sono genuine e sostanziate.

Vale la pena perciò chiedersi come agire per esercitare la responsabilità collettiva che impone a tutti i soggetti attivi sul web, non solo le istituzioni pubbliche, di mantenere il fuoco sulle iniziative da mettere a punto e su come perfezionare le pratiche già in uso.

Uno studio pubblicato di recente su Nature a cura del Data Science and Complexity Laboratory della Sapienza, a Roma, capitanato da Walter Quattrociocchi, offre una prospettiva polemica e interessante, pur se controversa. Nella ricerca, intitolata “Persistent interaction patterns across social media platforms and over time”, il team ha analizzato più di 500 milioni di commenti su otto piattaforme digitali, in un arco temporale di 34 anni, giungendo a sostenere che la tossicità online sia un semplice riflesso della natura umana, piuttosto che degli algoritmi delle piattaforme. I ricercatori concludono che “agli utenti piace litigare” e che le interazioni degenerano a causa della difesa delle proprie convinzioni e dell’assenza di segnali non verbali che portano alla polarizzazione. Secondo l’analisi, infatti, la tossicità persiste nel tempo come un “elemento invariabile”, più legato agli individui che agli strumenti digital, e il degrado del dibattito online quindi non è peggiorato dai social media né attribuibile all’ambiente digitale: la responsabilità primaria resta umana. 

Limiti e controversie degli studi sulla tossicità online

Va detto che lo studio ha il merito di aver risollevato l’interesse sulla questione specifica, ma ha suscitato anche perplessità sul  metodo e sulle conclusioni. Alcuni avanzano dubbi sulla rappresentatività del campione, troppo disomogeneo,  per la scelta di contemplare tante piattaforme e in un arco temporale troppo lungo. Senza entrare nella disputa, attribuire la tossicità online soltanto alla naturale predisposizione umana sembra indurre a sottovalutare l’impatto di algoritmi e strategie nel modellare i comportamenti in spazi progettati. 

Si ribadisce una verità nota, certo, ovvero che dietro ai nick e ai profili ci siamo noi, con le nostre caratterialità, ma forse si perde di vista lo stimolo antropoietico del digitale e dei social, il più vitale: ciò che le nostre invenzioni ‘variano’ di noi e in noi, nell’ambiente che esploriamo e agiamo, e negli altri che vi incontriamo. 

Altri osservatori ancor più critici sottolineano che la ricerca  è una comoda giustificazione per l’inattività delle piattaforme nel mitigare la tossicità. Ma anche questo è ingiusto: sappiamo che i social ci provano, ci lavorano da sempre, in un contesto pieno di limiti, ostacoli e conflitti che abbiamo già osservato. 

A un livello più vasto, ci limitiamo a ribadire che tutti i soggetti in causa dovrebbero partecipare alla responsabilità di presidiare in modo attivo, nel rispetto del diritto di parola e di espressione, gli ambienti di discussione e comunicazione aperti online. Si tratti di social, di forum, di community o piattaforme aziendali.

Un articolo scritto da Olivier Sibai, docente di Marketing presso la University of London, Marius K. Luedicke, direttore dell’Istituto per il Management del Marketing Internazionale presso la Vienna University of Economics and Business,  e ancora da Kristine de Valck, professoressa di Marketing presso la HEC di Parigi, pubblicato di recente sulla Harvard Business Review, esplora i limiti delle attuali strategie a contrasto dei contenuti e dei comportamenti tossici nelle comunità online. Basandosi su un’analisi condotta su 18 anni di dati provenienti da una singola e nutrita community di musica elettronica del Regno Unito (oltre 7 milioni di post e 20.000 membri), i ricercatori sfatano alcuni luoghi comuni sulla moderazione e la cultura tossica online.

Ad esempio, l’idea che gli utenti abbandonino le comunità, quando sono troppo tossiche. In realtà, molti vi rimangono per anni, spinti a sopportare comportamenti molesti o aggressivi da legami sociali e benefici informativi. Lo studio afferma che la tossicità non è episodica ma strutturale, radicata nelle dinamiche delle piattaforme. 

Gli autori arrivano poi a focalizzare soluzioni pratiche, suggerite da utenti e gestori della community esaminata. Strumenti personalizzati per gestire le interazioni, spazi sicuri per utenti vulnerabili e moderazione algoritmica avanzata e condotta sotto il controllo e la supervisione umana. Sottolineano, infine, che solo un approccio olistico e proattivo può contrastare efficacemente la tossicità online. Un suggerimento che rimanda all’etichetta dei vecchi forum, e suona bene. 

Gli autori spiegano anche che, nonostante l’impegno dei moderatori, la vastità e la velocità dei contenuti generati dagli utenti superano la capacità umana di controllo, e questo contribuisce a creare un ambiente vulnerabile a discorsi d’odio, disinformazione e altre forme di abuso.

La moderazione umana e manuale, concludono, è ormai insufficiente e richieda il supporto di strumenti tecnologici avanzati e algoritmi progettati per analizzare e prevedere i comportamenti problematici. In particolare, sottolineano l’importanza di strategie proattive che consentano di identificare, con anticipo temporale, le comunità che rischiano di diventare pericolose. Queste previsioni, basate su analisi predittive dell’IA, basate sui dati comportamentali e storici, potranno aiutare le piattaforme a intervenire in modo più tempestivo ed efficace.

Il ruolo dell’intelligenza artificiale contro la tossicità online

Se questa nostra sommaria analisi interdisciplinare sottolinea l’urgenza di ripensare la responsabilità collettiva nel creare un ambiente digitale migliore, ridurre le tossicità significa trovare il giusto amalgama (e ogni contesto richiede un adattamento specifico) per combinare tre elementi essenziali. 

Strumenti come AI e LLM (Large Language Models) hanno il potenziale per diventare alleati preziosi nel contrastare le tossicità, specialmente in contesti come i social, dove la scala e la velocità del problema superano le capacità umane. Ripensare la moderazione dei contenuti con una sinergia tra umani e AI è un’idea fondamentale. 

Strategie concrete per un web più sano

Ecco alcune possibilità per mettere in pratica questo tipo di collaborazione con l’AI contro la tossicità online.

Exit mobile version