KI könnte endlich helfen, gegen Hassreden vorzugehen

Inhaltsverzeichnis:

KI könnte endlich helfen, gegen Hassreden vorzugehen
KI könnte endlich helfen, gegen Hassreden vorzugehen
Anonim

Key Takeaways

  • Ein neues Softwaretool ermöglicht es der KI, Internetkommentare auf Hassreden zu überwachen.
  • KI wird benötigt, um Internetinh alte zu moderieren, da die enorme Menge an Material die menschlichen Fähigkeiten übersteigt.
  • Aber einige Experten sagen, dass die KI-Überwachung von Sprache Bedenken hinsichtlich des Datenschutzes aufwirft.
Image
Image

Angesichts der Zunahme von Hassreden im Internet sagt ein Unternehmen, dass es möglicherweise eine Lösung hat, die nicht auf menschliche Moderatoren angewiesen ist.

Ein Start-up namens Spectrum Labs stellt Plattformanbietern Technologien für künstliche Intelligenz zur Verfügung, um toxische Börsen in Echtzeit zu erkennen und zu unterbinden. Experten sagen jedoch, dass die KI-Überwachung auch Datenschutzprobleme aufwirft.

"Die KI-Überwachung erfordert oft die Betrachtung von Mustern im Laufe der Zeit, was die Aufbewahrung der Daten erfordert", sagte David Moody, Senior Associate bei Schellman, einem Unternehmen für Sicherheits- und Datenschutz-Compliance-Bewertungen, in einem E-Mail-Interview mit Lifewire. „Diese Daten können Daten enth alten, die gesetzlich als Datenschutzdaten (personenbezogene Daten oder PII) gekennzeichnet sind.“

Mehr Hassreden

Spectrum Labs verspricht eine Hightech-Lösung für das ur alte Problem der Hassrede.

"Im Durchschnitt helfen wir Plattformen dabei, den Aufwand für die Moderation von Inh alten um 50 % zu reduzieren und die Erkennung toxischer Verh altensweisen um das 10-fache zu erhöhen", behauptet das Unternehmen auf seiner Website.

Spectrum sagt, dass es mit Forschungsinstituten mit Expertise in spezifischen schädlichen Verh altensweisen zusammengearbeitet hat, um über 40 Verh altenserkennungsmodelle zu erstellen. Die Content-Moderationsplattform Guardian des Unternehmens wurde von einem Team von Datenwissenschaftlern und Moderatoren entwickelt, um „den Schutz von Gemeinschaften vor Toxizität zu unterstützen."

Es besteht ein wachsender Bedarf an Möglichkeiten zur Bekämpfung von Hassreden, da es für einen Menschen unmöglich ist, jeden Teil des Online-Verkehrs zu überwachen, Dylan Fox, CEO von AssemblyAI, einem Startup, das Spracherkennung anbietet und Kunden an der Überwachung von Hass beteiligt Rede, sagte Lifewire in einem E-Mail-Interview.

"Es gibt allein auf Twitter täglich etwa 500 Millionen Tweets", fügte er hinzu. „Selbst wenn eine Person alle 10 Sekunden einen Tweet überprüfen könnte, müsste Twitter dafür 60.000 Mitarbeiter beschäftigen. Stattdessen verwenden wir intelligente Tools wie KI, um den Prozess zu automatisieren.“

Im Gegensatz zu einem Menschen kann KI rund um die Uhr arbeiten und möglicherweise gerechter sein, da sie so konzipiert ist, dass sie ihre Regeln einheitlich auf alle Benutzer anwendet, ohne dass persönliche Überzeugungen eingreifen, sagte Fox. Es entstehen auch Kosten für diejenigen, die Inh alte überwachen und moderieren müssen.

"Sie können Gew alt, Hass und schmutzigen Handlungen ausgesetzt sein, die der psychischen Gesundheit einer Person schaden können", sagte er.

Spectrum ist nicht das einzige Unternehmen, das versucht, Hassreden im Internet automatisch zu erkennen. Zum Beispiel hat Centre Malaysia kürzlich einen Online-Tracker gestartet, der entwickelt wurde, um Hassreden unter malaysischen Internetnutzern zu finden. Die von ihnen entwickelte Software namens Tracker Benci nutzt maschinelles Lernen, um Hassreden im Internet zu erkennen, insbesondere auf Twitter.

Die Herausforderung besteht darin, Räume zu schaffen, in denen Menschen wirklich konstruktiv miteinander umgehen können.

Datenschutzbedenken

Während technische Lösungen wie Spectrum Hassreden im Internet bekämpfen könnten, werfen sie auch Fragen darüber auf, wie viel Polizeicomputer tun sollten.

Es gibt Auswirkungen auf die Meinungsfreiheit, aber nicht nur für die Redner, deren Beiträge als Hassreden entfernt würden, sagte Irina Raicu, Direktorin für Internetethik am Markkula Center for Applied Ethics an der Santa Clara University, Lifewire in einer E-Mail Vorstellungsgespräch.

"Das Zulassen von Belästigung im Namen der 'Redefreiheit' hat die Ziele solcher Reden (insbesondere wenn sie sich an bestimmte Personen richten) dazu veranlasst, das Sprechen einzustellen - um verschiedene Gespräche und Plattformen vollständig aufzugeben", sagte Raicu."Die Herausforderung besteht darin, Räume zu schaffen, in denen sich Menschen wirklich konstruktiv miteinander auseinandersetzen können."

KI-Sprachüberwachung sollte keine Datenschutzprobleme aufwerfen, wenn Unternehmen während der Überwachung öffentlich verfügbare Informationen verwenden, sagte Fox. Wenn das Unternehmen jedoch Details darüber kauft, wie Benutzer auf anderen Plattformen interagieren, um problematische Benutzer vorab zu identifizieren, könnte dies Datenschutzbedenken aufwerfen.

"Je nach Anwendung kann es definitiv eine Grauzone sein", fügte er hinzu.

Image
Image

Justin Davis, der CEO von Spectrum Labs, teilte Lifewire in einer E-Mail mit, dass die Technologie des Unternehmens 2.000 bis 5.000 Datenzeilen innerhalb von Sekundenbruchteilen überprüfen kann. „Am wichtigsten ist, dass Technologie die Menge an toxischen Inh alten reduzieren kann, denen menschliche Moderatoren ausgesetzt sind“, sagte er.

Wir stehen möglicherweise an der Schwelle zu einer Revolution in der KI, die menschliche Sprache und Text online überwacht. Zukünftige Fortschritte umfassen bessere unabhängige und autonome Überwachungsfunktionen, um bisher unbekannte Formen von Hassreden oder andere zensierbare Muster zu identifizieren, die sich entwickeln werden, sagte Moody.

AI wird auch bald in der Lage sein, Muster in den spezifischen Sprachmustern zu erkennen und Quellen und ihre anderen Aktivitäten durch Nachrichtenanalyse, öffentliche Einreichungen, Verkehrsmusteranalyse, physische Überwachung und viele andere Optionen in Beziehung zu setzen, fügte er hinzu.

Aber einige Experten sagen, dass Menschen immer mit Computern arbeiten müssen, um Hassreden zu überwachen.

"KI allein wird nicht funktionieren", sagte Raicu. "Es muss als ein unvollkommenes Werkzeug erkannt werden, das in Verbindung mit anderen Antworten verwendet werden muss."

Korrektur 25.01.2022: Zitat von Justin Davis im 5. Absatz vom Ende hinzugefügt, um eine E-Mail nach der Veröffentlichung widerzuspiegeln.

Empfohlen: