GGWP è un sistema di intelligenza artificiale che tiene traccia e combatte la tossicità in-game:

Quando si tratta di giochi online, sappiamo tutti che il pulsante “segnala” non fa nulla. Indipendentemente dal genere, dall’editore o dal budget, i giochi vengono lanciati ogni giorno con sistemi inefficaci per segnalare i giocatori abusivi e alcuni dei più grandi titoli del mondo esistono in un costante stato di scuse per ospitare ambienti tossici. I franchise tra cui League of Legends, Call of Duty, Counter-Strike, Dota 2, Overwatch, Ark e Valorant hanno comunità così ostili che questa reputazione fa parte dei loro marchi – suggerendo che questi titoli ai nuovi giocatori includa un avvertimento sul vetriolo che faranno esperienza in chat.

Sembra che il pulsante di segnalazione invii spesso i reclami direttamente in un bidone della spazzatura, che viene poi incendiato trimestralmente dal dipartimento di moderazione di una sola persona. Secondo il leggendario professionista di eSport di Quake e Doom Dennis Fong (meglio noto come Thresh), questo non è lontano dalla verità in molti studi AAA.

“Non farò nomi, ma alcuni dei più grandi giochi del mondo erano tipo, sai, onestamente non vanno da nessuna parte”, ha detto Fong. “Va in una casella di posta che nessuno guarda. Lo senti come giocatore, giusto? Ti senti abbattuto perché sei tipo, ho denunciato lo stesso ragazzo 15 volte e non è successo niente”.

Gli sviluppatori di giochi e gli editori hanno avuto decenni per capire come combattere la tossicità dei giocatori da soli, ma non l’hanno ancora fatto. Quindi, Fong ha fatto.

Questa settimana ha annunciato GGWP, un sistema basato sull’intelligenza artificiale che raccoglie e organizza i dati sul comportamento dei giocatori in qualsiasi gioco, consentendo agli sviluppatori di affrontare ogni segnalazione in arrivo con un mix di risposte automatiche e recensioni di persone reali. Una volta introdotta in un gioco – “Letteralmente è come una riga di codice”, ha detto Fong – l’API GGWP aggrega i dati dei giocatori per generare un punteggio di salute della comunità e scomporre i tipi di tossicità comuni a quel titolo. Dopotutto, ogni gioco è un grosso fiocco di neve quando si tratta di abusi in chat.

GGWP:

Il sistema può anche assegnare punteggi di reputazione ai singoli giocatori, sulla base di un’analisi guidata dall’intelligenza artificiale delle partite segnalate e di una comprensione complessa della cultura di ogni gioco. Gli sviluppatori possono quindi assegnare risposte a determinati punteggi di reputazione e persino comportamenti specifici, avvertendo i giocatori di un calo delle loro valutazioni o semplicemente scoppiando il martello del divieto. Il sistema è completamente personalizzabile, consentendo un titolo come: Call of Duty: Zona di guerra: avere regole diverse da, diciamo, Roblox:.

“Ci siamo resi conto molto rapidamente che, prima di tutto, molti di questi rapporti sono gli stessi”, ha detto Fong. “E per questo motivo, puoi effettivamente utilizzare i big data e l’intelligenza artificiale in modi per aiutare a triage questa roba. La stragrande maggioranza di questa roba è in realtà quasi perfettamente preparata affinché l’IA possa affrontare questo problema. Ed è solo che le persone non l’hanno fatto ci siamo già riusciti».

GGWP nasce da un’idea di Fong, del fondatore di Crunchyroll, Kun Gao, e dell’esperto di dati e intelligenza artificiale Dr. Giorgio Ng. Finora si sono assicurati $ 12 milioni di finanziamenti iniziali, sostenuti da Sony Innovation Fund, Riot Games, dal fondatore di YouTube Steve Chen, dallo streamer Pokimane e dai creatori di Twitch Emmett Shear e Kevin Lin, tra gli altri investitori.

GGWP:

GGWP:

Fong e le sue coorti hanno iniziato a costruire GGWP più di un anno fa e, visti i loro legami con l’industria, hanno potuto incontrarsi con i dirigenti degli studi AAA e chiedersi perché la moderazione fosse un problema così persistente. Il problema, hanno scoperto, era duplice: In primo luogo, questi studi non vedevano la tossicità come un problema che creavano, quindi non se ne assumevano la responsabilità (possiamo chiamarlo Zuckerberg Special). E in secondo luogo, c’erano semplicemente troppi abusi da gestire.

In un solo anno, un gioco importante ha ricevuto più di 200 milioni di segnalazioni inviate dai giocatori, ha detto Fong. Anche molti altri capi di studio ha parlato con cifre condivise a nove cifre, con i giocatori che generano centinaia di milioni di rapporti all’anno per titolo. E il problema era anche più grande di: Quello:.

“Se ottieni 200 milioni per una partita di giocatori che si segnalano a vicenda, la portata del problema è enormemente grande”, ha detto Fong. “Perché come abbiamo appena parlato, le persone si sono arrese perché non va da nessuna parte. Smettono semplicemente di denunciare le persone. ”

I dirigenti hanno detto a Fong che semplicemente non potevano assumere abbastanza persone per tenere il passo. Inoltre, in genere non erano interessati a formare una squadra solo per creare una soluzione automatizzata: se avevano personale AI nello staff, volevano che costruissero il gioco, non un sistema di moderazione.

Alla fine, la maggior parte degli studi AAA ha finito per occuparsi di circa lo 0,1% dei rapporti che ricevevano ogni anno e i loro team di moderazione tendevano ad essere ridicolmente piccoli, ha scoperto Fong.

GGWP:

GGWP:

“Alcuni dei più grandi editori del mondo, i loro team di comportamento dei giocatori anti-tossicità sono meno di 10 persone in totale”, ha detto Fong. “Il nostro team ha 35 anni. Ne ha 35 ed è tutto prodotto, ingegneria e data scientist. Quindi noi come team siamo più grandi di quasi tutti i team di editori globali, il che è un po’ triste. Siamo molto devoti e impegnati a cercare di aiutare a risolvere questo problema. ”

Fong vuole che GGWP introduca un nuovo modo di pensare alla moderazione nei giochi, concentrandosi sull’implementazione di momenti di insegnamento, piuttosto che su punizioni dirette. Il sistema è in grado di riconoscere comportamenti utili come condividere armi e rianimare i compagni di squadra in condizioni avverse e in risposta può applicare bonus al punteggio di reputazione di quel giocatore. Consentirebbe inoltre agli sviluppatori di implementare notifiche in-game in tempo reale, come un avviso che dice “hai perso 3 punti reputazione” quando un giocatore usa una parola inaccettabile. Si spera che questo li dissuada dal ripetere la parola, diminuendo il numero di segnalazioni complessive per quel gioco, ha detto Fong. Uno studio dovrebbe fare un piccolo lavoro in più per implementare un tale sistema di notifica, ma GGWP può gestirlo, secondo Fong.

“Abbiamo completamente modernizzato l’approccio alla moderazione”, ha affermato. “Devono solo essere disposti a provarci”.

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione, indipendente dalla nostra casa madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione.

Leave a Comment