Key Takeaways
- ToxMod des in Boston ansässigen Unternehmens Modulate behauptet, störende Sprache automatisch und in Echtzeit zu erkennen und dagegen vorzugehen.
- Anstatt durch einfache Sprache eingeschränkt zu sein, verwendet ToxMod maschinelles Lernen, um immaterielle Werte wie Emotionen, Lautstärke und Rhythmus herauszufinden.
- ToxMod ist derzeit für die Verwendung mit Chatrooms im Spiel konzipiert, aber es gibt keinen Grund, warum es nicht zu Ihrem Twitch-Kanal kommen könnte.
Ein in Boston ansässiges Unternehmen nutzt maschinelles Lernen, um das zu schaffen, was es als den weltweit ersten sprachnativen Moderationsdienst bezeichnet, der den Unterschied zwischen dem, was gesagt wird, und dem, was es bedeutet, erkennen kann.
ToxMod ist ein Versuch, das Paradox der Moderation von offenem Raum im Internet zu lösen; Es gibt nicht genug Menschen, um mit der Nachfrage Schritt zu h alten, aber Algorithmen, Filter und ein Berichtssystem verstehen keine Nuancen.
Mit der Datenbank von ToxMod kann es Faktoren in der Sprache der Spieler wie Emotionen und Lautstärke nachverfolgen, was dabei hilft, zwischen einem vorübergehenden Versehen und einem Verh altensmuster zu unterscheiden. Es wurde kürzlich als Ergänzung zum 7-gegen-7-American-Football-Spiel Gridiron angekündigt, das sich derzeit im Steam Early Access befindet.
"Jeder weiß, dass Belästigung, Hassreden und Toxizität in Voice-Chats und Spielen ein massives Problem sind. Das ist allgemein bekannt", sagte Carter Huffman, Chief Technology Officer und Mitbegründer von Modulate, in einem Google-Meeting mit Lebensdraht. „Wir konnten die Funktionen, die wir durch diese Vielzahl von maschinellen Lernsystemen extrahierten, zu einem System zusammenführen, das all dieses Expertenwissen berücksichtigte, das wir von der Community lernten."
Heil unseren neuen Roboter-Moderatoren
Modulate arbeitet seit letztem Herbst an ToxMod und hat es als einen der drei Kerndienste des Unternehmens integriert. Es bietet auch VoiceWear, einen auf maschinellem Lernen basierenden Voice Disguiser, und VoiceVibe, einen Aggregator-Service, mit dem Benutzer herausfinden können, was die Menschen in ihren Communities diskutieren.
Wenn ToxMod in einem Chat ausgeführt wird, kann es über das Admin-Panel von Modulate so programmiert werden, dass es eine Vielzahl automatischer Aktionen ausführt, z. B. das Ausgeben von Warnungen, das Stummsch alten von Spielern oder das individuelle Anpassen der Lautstärke.
Es verwendet ein Triage-System, bei dem seine lokale Instanz als erste Maßnahmen ergreift, bevor es die Server von Modulate zur Bestätigung überprüft. Dann eskaliert es schließlich bis zu dem Punkt, an dem es menschliches Eingreifen erfordern könnte. Indem jede Überprüfung der Reihe nach durchlaufen wird, was Modulate „Triage Gates“nennt, ist die Idee, dass ToxMod einem kleinen Team von Moderatoren die Werkzeuge an die Hand gibt, mit denen eine viel größere Community effektiv moderiert werden kann.
"Die traurige Wahrheit ist, dass jeder diese Erfahrung gemacht hat, bei dem Versuch, den Voice-Chat auf welcher Plattform auch immer zu verwenden, und festgestellt hat, dass das eine schlechte Idee war", sagte Mike Pappas, CEO von Modulate Videoanruf mit Lifewire. „In die Lage zu kommen und zu sagen: ‚Das ist nicht der Wilde Westen. Es gibt Regeln.‘Ich denke, das ist wirklich wichtig.“
Breaking the System
Natürlich ist die zweite oder dritte Frage zu ToxMod, wie man es kaputt macht.
Bei vielen automatischen Moderationssystemen, wie z. B. den Algorithmen, die Twitter steuern, ist es einfach, sie gegen Leute auszuspielen, die Sie nicht mögen. Melden Sie Ihr Ziel einfach mit ein paar Sockenpuppenkonten massenhaft und sie werden zuverlässig einen Bann fressen.
"Grundsätzlich muss sich ToxMod nicht auf diese zusätzlichen Spielerberichte verlassen", sagte Pappas. „Es ist immer noch in der Lage, solide Schätzungen darüber zu erstellen, auf welche Straftaten wir achten müssen. Sie müssen sich keine Sorgen machen, dass Spieler versuchen, das System zu spielen, da es nicht wirklich etwas zu spielen gibt.
Jeder weiß, dass Belästigung, Hassreden und Toxizität in Voice-Chats und Spielen ein massives Problem darstellen.
"Alles, worüber du als Spieler die Kontrolle hast, ist dein eigenes Audio", fuhr Pappas fort. "Das Schlimmste, was Sie tun können, ist, weniger schlecht von einer Person zu sein, damit wir Sie nicht als schlechten Schauspieler kennzeichnen, was meiner Meinung nach dem Erfolg einer Mission nahe kommt."
Im Allgemeinen ist die Idee hinter ToxMod also ein aktiver Rückgewinnungsversuch. Viele Spieler haben zu diesem Zeitpunkt irgendeine Form von Belästigung durch zufällige Fremde in offenen Sprachkanälen erlebt, die von zufälligen Beleidigungen bis hin zu aktiven Drohungen reichen. Infolgedessen scheuen Spieler im Allgemeinen den Voice-Chat und verzichten lieber auf seine Bequemlichkeit im Austausch für ihre eigene Ruhe.
"Wir erwarten, dass [schlechte Schauspieler] viel weniger Zeit im Voice-Chat verbringen, bevor sie gefunden und entfernt werden", sagte Pappas.„Das hat mehr als nur eine lineare Auswirkung. Wenn alle den Voice-Chat als sichereren Ort ansehen, sind mehr gute Schauspieler bereit, zum Voice-Chat zurückzukehren und es zu versuchen. Ich denke, alles kann sich in eine positive Richtung drehen.“