ToxMod di Modulate utilizza l’intelligenza artificiale per scansionare la chat vocale in-game alla ricerca di discorsi tossici

Oggi, Modulate ha lanciato ToxMod, un nuovo servizio che utilizza l’intelligenza artificiale per scansionare la chat vocale nei videogiochi per ricerca parole tossiche o altri comportamenti negativi.

Il team di Modulate: (da sinistra a destra) Mike Pappas, Terry Chen, Carter Huffman.

Segnala tutto, dal discorso razzista al comportamento predatorio, prendendo in esame anche il modo in cui le persone dicono le parole ed i toni di voce per comunicare agli sviluppatori di giochi ciò che magari ha bisogno di essere portato alla loro attenzione.

Modulate afferma che il servizio è il primo servizio di moderazione nativo della voce al mondo, consentendo alle aziende di monitorare l’incitamento tossico in tempo reale e dando alle aziende di gioco la possibilità di rilevare le parole vietate in modo tempestivo. Il software sarebbe addirittura in grado di integrarsi altre tecnologie relative alla voce, sempre create presso l’azienda con sede a Cambridge, Massachusetts, che stanerebbero anche chi utilizza tecniche di machine learning per creare “skin vocali” personalizzabili per i giochi (Questi consentono ai giocatori di modificare la loro voce in modo che possano avere voci divertenti o mascherare le loro identità).

ToxMod aiuta gli sviluppatori a rilevare il discorso tossico, dirompente o altrimenti problematico in tempo reale e a intraprendere automaticamente azioni sfumate, come il blocco di singole parole, come insulti razziali, o l’identificazione di informazioni, ad esempio un numero di telefono. Naturalmente, stiamo parlando di giochi e molti giochi hanno discorsi difficili da interpretare, come ad esempio nel gioco multiplayer. ToxMod utilizza sofisticati modelli di machine learning per capire non solo ciò che ogni giocatore sta dicendo, ma come lo sta dicendo, tra cui enfasi, volume, prosodia e altro ancora. In breve, dice l’azienda, conosce la differenza tra “f *** off” e “f *** yes!”

L’obiettivo è quello di aiutare a eliminare i membri tossici della comunità su larga scala in modo che gli sviluppatori possano tenere il passo con il numero di trasgressori e creare un vero cambiamento nelle comunità di gioco.

Sarà utilizzato in maniera consona o potrà essere utilizzato anche con secondi fini? Questo è il grande dilemma che ci si pone al momento…

Valerio "Raziel" Vega: Napoletano a Roma, Tecnico Ortopedico di giorno, Retrogamer compulsivo di notte. Creatore del progetto Nerdream, amante del cinema, delle serieTV, dei fumetti e di tutto ciò che è fottutissimamente NERD, sogna una vecchiaia con una dentiera solida ed il pad di un NES tra le mani. Il suo motto è “Ama il prossimo tuo come hai amato il tuo Commodore64”