Le aziende tecnologiche vogliono affrontare il problema delle molestie nei videogiochi

Un sondaggio della Anti-Defamation League del 2020 ha rivelato che l’81% degli adulti americani ha subito molestie nei giochi multiplayer online, e le cifre salgono per le donne e le persone di colore. Illustrazione: Derek Abella

Per rivedere questo articolo, visitare Il mio profilo, quindi Visualizza le storie salvate.

Il giocatore di CounterStrike: Global Offensive Adam Bahriz probabilmente vi ucciderà nel gioco. È così abile che ha ottenuto un contratto con il Team Envy, un’organizzazione di esports che ospita alcuni dei giocatori competitivi di eSports più quotati del Nord America. Si dà il caso che Bahriz sia anche sordo e cieco legale, con una condizione nota come HSAN 8.

“Cosa volete fare? Vi fate una canna? Posso comprare il fumo”, dice Bahriz. I suoi compagni di squadra intervengono immediatamente per deriderlo e bloccarlo. “Verrai bloccato”, dice uno di loro. “Sappiamo che stai trollando”, dice un altro. “Sei così fastidioso”. “Sei già stato bloccato”.

“Ok, non parlerò, mi dispiace”, dice rassegnato.

Bahriz trascorre il resto della partita in silenzio e inizia persino a piangere, rivelando gli effetti molto reali e potenti che il bullismo ha sui giocatori che lo subiscono. È tutto ciò che non va nella cultura tossica dei videogiochi, dove gli insulti vengono lanciati liberamente, il bullismo si verifica regolarmente e tutto, dal razzismo alla misoginia, all’omofobia, alla transfobia, all’abitudinarietà e altro ancora, è un gioco da ragazzi. “Questo incidente mi ha fatto sentire super depresso”, racconta Bahriz. “Volevo semplicemente divertirmi con un gioco, ma un difetto di pronuncia che sfugge al mio controllo lo rende difficile”. Bahriz dice che alla fine i compagni di squadra tossici lo hanno cacciato dal gioco, e anche se “la maggior parte delle volte le persone sono tossiche, è raro essere davvero cacciati dal gioco. Ecco perché è stato così sconvolgente. Si possono silenziare le persone tossiche, ma non si può evitare che l’intera squadra si coalizzi per cacciarti senza motivo se non per un problema di linguaggio”.

Nel 2017, una streamer di Twitch, Nicole Smith, ha registrato gli abusi verbali ricevuti mentre giocava a Overwatch.

“Torna in cucina”, le ha detto un compagno di squadra. “Questo è il motivo per cui le ragazze non dovrebbero fare nulla”, ha commentato un altro. “Puoi davvero andare a morire?”.

Come Bahriz, anche Smith ha ricevuto una raffica di insulti, molestie e, nel suo caso, commenti misogini. L’abuso che la Smith deve sopportare solo per giocare ai videogiochi ricorda il GamerGate, dove le donne che lavorano nel settore dei videogiochi e del giornalismo videoludico (e chiunque si sia espresso per difenderle) hanno subito settimane, mesi e in alcuni casi anni di molestie, tra cui minacce di morte, doxing e stalking. Questo ha portato a cambiamenti nella risposta dell’industria dei videogiochi alle molestie online, con alcuni sviluppatori ed editori di videogiochi che hanno lanciato le proprie iniziative per combattere la tossicità all’interno del gioco, e a critiche diffuse nei confronti di molti di questi stessi editori e sviluppatori per aver aspettato che la vita delle persone fosse in pericolo per prendere sul serio le molestie.

Un sondaggio della Anti-Defamation League del 2020 ha rivelato che l’81% degli adulti americani ha subito molestie nei giochi multigiocatore online, rispetto al 74% del 2019, mentre il 70% è stato chiamato con nomi offensivi nei giochi multigiocatore online e il 60% è stato bersaglio di trolling o di “tentativi deliberati e malevoli di provocare [altri giocatori] a reagire negativamente”. Complessivamente, si è registrato un aumento del 7% dal 2019 al 2020.

Bahriz non riceve più tanti insulti come un tempo, ma quando li riceve, di solito si limita a silenziarli e fa del suo meglio per “non lasciare che la tossicità lo distragga mentalmente dal gioco”, dice. Per altri, tuttavia, il semplice silenziamento non funziona, ammesso che sia disponibile nel gioco a cui stanno giocando. Nel 2019 un’altra indagine dell’ADL ha rilevato che il 22% degli adulti americani che hanno subito molestie nei giochi multigiocatore online ha smesso del tutto di giocare a determinati giochi a causa delle molestie.

Nel 2017, Activision Blizzard, Epic, Intel, Microsoft, Twitch e oltre 200 altre aziende hanno costituito la Fair Play Alliance per, come recita il suo sito web, “incoraggiare il fair play e le comunità sane”. Nel 2018, Blizzard ha nominato pubblicamente 180 giocatori di Overwatch banditi per comportamenti tossici, tra cui l’abuso nelle chat audio e il lancio deliberato di partite. Non male per un gioco che non aveva nemmeno l’opzione di segnalare i giocatori abusivi al suo rilascio nel 2016. Nel 2019, Ubisoft ha emesso divieti istantanei di mezz’ora per i giocatori di Rainbow Six Siege se la società rilevava insulti nella chat di testo. Il codice di condotta di Ubisoft dice che questo include “qualsiasi linguaggio o contenuto ritenuto illegale, pericoloso, minaccioso, abusivo, osceno, volgare, diffamatorio, odioso, razzista, sessista, eticamente offensivo o che costituisce una molestia”. Sempre nello stesso anno, Electronic Arts ha istituito un Consiglio dei giocatori con un vertice inaugurale alla Gamescom di Colonia, in Germania.

Anche Riot Games, una società che è stata al centro delle cronache sia per la tossicità interna che per quella dei suoi giochi, sta lavorando per affrontare il problema. Nel 2012 ha introdotto il Tribunal System in League of Legends, in cui i giocatori venivano banditi temporaneamente in base alle loro azioni e alle offese ritenute inaccettabili dagli altri giocatori. (Nel 2016 ha pubblicato un rapporto su Scientific American in cui concludeva che, sulla base di uno studio sulla tossicità, l’aggiunta di suggerimenti in gioco (tra le altre cose) riduceva la tossicità del gioco del 25% sia per quanto riguarda i giocatori che commettevano abusi nelle lobby, sia per quanto riguarda le partite che contenevano abusi. Anche nell’aprile del 2021, Riot ha modificato la sua politica sulla privacy per consentire l’acquisizione e la valutazione delle comunicazioni vocali di un giocatore quando è stata presentata una segnalazione sul suo comportamento, con l’obiettivo di ridurre la tossicità nelle comunicazioni vocali e nella chat di gioco.

Weszt Hart, responsabile delle dinamiche dei giocatori della Riot, mi dice che il loro obiettivo è “ridurre il dolore dei giocatori”. E continua: “L’interruzione dovrebbe essere minima. Dovreste essere in grado di concentrarvi sul gioco e, si spera, di raggiungere l’obiettivo che avevamo e che i giocatori hanno, sapete, riunendosi”. Per quanto riguarda la tecnologia alla base di questa nuova strategia di moderazione della comunicazione vocale, Hart fa notare che esistono “diversi approcci che attualmente permettono di prendere l’audio, sia che si tratti di text-to-speech, sia che si tratti potenzialmente di capire il sentimento di ciò che viene detto e di agire su di esso. Stiamo lasciando che le tecnologie si dimostrino un po’ più efficaci. Stiamo esaminando tutte le possibilità e stiamo restringendo il campo su quello che pensiamo sarà l’approccio o gli approcci migliori, perché non c’è una pallottola d’argento”.

Per quanto riguarda l’archiviazione dei dati, Hart afferma che una volta che Riot sarà soddisfatta del modo migliore per catturare i dati delle comunicazioni vocali, sarà “il modo più veloce per ottenere questi rapporti”. L’azienda “elaborerà l’audio, prenderà buone decisioni e poi deciderà cosa fare”. Cosa succede ai dati dopo la stesura del rapporto? “Vogliamo trattenerli per il minor tempo possibile”, dice Hart, “quanto basta per poterli esaminare e prendere le misure del caso. Una volta fatto questo, vogliamo cancellarli. È logico che i dati vengano archiviati a livello regionale”.

Sebbene gran parte della responsabilità di affrontare il problema della tossicità spetti agli editori e agli sviluppatori di giochi che ospitano le piattaforme in cui si verificano i comportamenti tossici, non sono le uniche aziende che cercano di fare qualcosa al riguardo.

Alla 2021 Game Developers Conference del mese scorso, Intel ha presentato Bleep. Il programma, dotato di una tecnologia di riconoscimento vocale basata sull’intelligenza artificiale, è stato progettato per contrastare la tossicità nei giochi rilevando e riducendo l’audio in base alle preferenze degli utenti. Si tratta di un ulteriore livello di moderazione audio rispetto a quello offerto da una piattaforma o da un servizio, ed è controllato dall’utente. È interessante notare che il controllo avviene tramite funzioni di selezione e di scorrimento, che consentono agli utenti di decidere a quali livelli scegliere di ascoltare, ad esempio, i discorsi di odio. Secondo l’anteprima di The Verge, la tecnologia copre un’ampia gamma di categorie, come “aggressività, misoginia, odio LGTBQ+, razzismo e xenofobia, nazionalismo bianco” e altro ancora. In particolare, la parola N è un’impostazione attivabile/disattivabile.

Sebbene l’intenzione sembri ammirevole, più di qualcuno ha criticato il modo piuttosto goffo in cui l’utente può optare per alcuni livelli di misoginia, anziché per nessuno. L’idea di poter aprire un’app e poi disattivare tutti i discorsi d’odio tranne l’abilismo, ad esempio, è controintuitiva. Qual è la differenza tra alcuni e la maggior parte del nazionalismo bianco? Ci sono anche domande su come funziona esattamente la tecnologia sul computer dell’utente. Comincia a emettere un bip dopo un certo numero di insulti? Preferisce eliminare gli insulti a un gruppo particolare più che ad altri? Esiste una gerarchia in termini di gruppi a cui la tecnologia è più sensibile?

In collaborazione con Spirit AI, un’azienda specializzata nel riconoscimento vocale dell’intelligenza artificiale, Intel sta lavorando a Bleep da almeno due anni. Ma le molestie online possono essere difficili da moderare, soprattutto in audio e in tempo reale. Anche la più sofisticata tecnologia di riconoscimento vocale può non cogliere le sfumature di tossicità e, sebbene sia in grado di identificare gli insulti diretti, gli abusi audio non sono solo insulti e parolacce. Basta guardare gli abusi che Bahriz deve affrontare.

“Il problema di Bleep è che è molto focalizzato su piattaforme specifiche e non sarà disponibile sulla maggior parte delle piattaforme. Credo che questo sia parte del problema”, afferma Nigel Cannings, CTO di Intelligent Voice, un’azienda specializzata in riconoscimento vocale e tecnologia biometrica. Si riferisce al fatto che Bleep, quando sarà disponibile, probabilmente funzionerà solo su sistemi con processore Intel, che non rappresentano la maggioranza delle piattaforme su cui si gioca ai videogiochi. Per quanto riguarda l’uso di cursori e levette per selezionare i “livelli” di abuso o tossicità, Nigel concorda sul fatto che sia quantomeno problematico. “L’idea che si possano avere livelli di misoginia per me è semplicemente folle. O si censurano le cose o non si censurano, non si danno livelli alle persone”.

“Presumo che, se si alzano tutte le regolazioni, probabilmente il filtro è eccessivo”, afferma. “La cosa più importante da considerare con la tecnologia di riconoscimento vocale è che non è accurata al 100%. Con i videogiochi, quando le persone si eccitano sempre di più, alcune parole diventano più difficili da rilevare”. Ci sono diversi fattori che possono causare il fallimento della tecnologia di riconoscimento vocale. Accenti, livelli di eccitazione, modulazione del microfono e altro ancora complicano il problema. Hart aggiunge un’altra complicazione: “C’è da capire tutte le lingue, ma poi c’è da capire come parlano le persone, come parlano i giocatori, e quali sono i termini che usano? Non sono universali. E quando questi termini vengono usati, possono cambiare drasticamente. Molti giocatori potrebbero sapere che GG è facile, giusto? E se si dice GG, facile all’inizio del gioco, è divertente, giusto? Perché nessuno ha ancora giocato. Ed è una specie di scherzo, giusto? Io la prenderei sul ridere. Altri forse no. Ma alla fine della partita. Se hai perso, potrebbe essere divertente. Giusto? Se hai vinto, è piuttosto scortese. Per questo la tecnologia non deve solo trascrivere, ma anche aiutarci a prendere provvedimenti: una sfida in più”.

Secondo Cannings, un altro svantaggio fondamentale di una tecnologia come Bleep è che perpetua l’idea che sia responsabilità dei giocatori occuparsi degli abusi e non delle aziende che possiedono e gestiscono le piattaforme in cui si verificano. Egli sostiene che il problema dell’abuso e della tossicità viene spostato sul lato del cliente e osserva che uno dei motivi principali per cui le grandi aziende tecnologiche non vogliono memorizzare i dati non è la privacy, ma perché, come dice, “è incredibilmente costoso”. Ecco perché le aziende non vogliono questa responsabilità. Se immaginate di essere in un gioco multiplayer, e ogni singolo flusso audio deve passare attraverso la tecnologia di riconoscimento vocale, e poi probabilmente dovrete iniziare a memorizzare i profili, nel caso in cui finiate per interrogare le persone, chiedendo se si tratta di una nuova persona o se stanno adottando nuove identità in giochi diversi?”.

Al contrario di Cannings, Hart sostiene che “l’idea che si possa avere un livello di controllo su ciò che si ascolta la trovo molto convincente, perché mette un po’ di potere nelle mani dell’individuo. In ultima analisi, è necessario avere un certo potere sulla propria esperienza come giocatore”. Ma è ancora cauto, affermando che tecnologie come Bleep possono avere un impatto, ma dovrebbero essere solo una parte di una soluzione più ampia.

Ma questo è tutto accademico. I giocatori userebbero mai una tecnologia come Bleep? Bahriz dice che, nonostante gli abusi che riceve, non la userebbe. Sostiene che le persone che vogliono essere “una seccatura possono probabilmente trovare il modo di aggirare” una tecnologia come Bleep, e anche gli sforzi di moderazione come la cattura audio di Riot. Se i giocatori normali sono confusi dalla tecnologia nel migliore dei casi, preoccupati dai suoi limiti nel peggiore, e molti non la useranno anche se è disponibile, è chiaro che l’industria del gioco deve adottare approcci diversi – e forse aggiuntivi – per affrontare la tossicità nel gioco.