AI könnte der Schlüssel zur Verhinderung der Verbreitung von Fake News sein

Inhaltsverzeichnis:

AI könnte der Schlüssel zur Verhinderung der Verbreitung von Fake News sein
AI könnte der Schlüssel zur Verhinderung der Verbreitung von Fake News sein
Anonim

Key Takeaways

  • Forscher haben ein KI-System entwickelt, das gefälschte Nachrichten erkennen und kennzeichnen soll.
  • Das Modell durchsucht einen öffentlichen Datensatz mit gefälschten Nachrichten, warnt Benutzer und leitet sie zu verifizierten Informationsquellen weiter.
  • Es gibt eine wachsende Zahl von KI-Methoden zur Bekämpfung von Falschmeldungen im Internet.

Image
Image

Künstliche Intelligenz (KI) trägt dazu bei, die schnelle Verbreitung von Desinformationen im Internet einzudämmen, sagen Experten.

Forscher haben ein KI-System entwickelt, das gefälschte Nachrichten erkennen und kennzeichnen soll. Das Modell durchsucht einen öffentlichen Datensatz mit gefälschten Nachrichten, warnt Benutzer und leitet sie an verifizierte Informationsquellen weiter. Es ist Teil einer wachsenden Zahl von KI-Methoden zur Abwehr von Falschmeldungen.

"Die Menge an Informationen, die durch das Internet fließen, insbesondere in sozialen Netzwerken, ist enorm und kann nicht manuell gehandhabt werden, insbesondere nicht mit hoher Genauigkeit", hat Wael AbdAlmageed, Professor für Computertechnik an der University of Southern California, entwickelt KI-Algorithmen zur Erkennung visueller Fehlinformationen, sagte Lifewire in einem E-Mail-Interview.

"Es ist wichtig, Fehlinformationen in Echtzeit zu überwachen und zu kennzeichnen, da es schwierig ist, Menschen davon zu überzeugen, dass die Informationen falsch sind, sobald sie sich verbreiten, insbesondere wenn Fehlinformationen unsere Vorurteile bestätigen", fügte er hinzu.

Keep It Real

Die von einem Team der australischen Macquarie University entwickelte KI-Technik könnte dazu beitragen, die Verbreitung von Fake News zu reduzieren. Das Modell kann in eine App oder Websoftware integriert werden und bietet Links zu relevanten „wahren“Informationen, die den Interessen jedes Benutzers entsprechen.

"Wenn Sie online Nachrichten lesen oder ansehen, werden Ihnen häufig Nachrichten über ähnliche Ereignisse oder Themen vorgeschlagen, die ein Empfehlungsmodell verwenden", sagte Shoujin Wang, ein Datenwissenschaftler an der Macquarie University, der an der Studie mitgearbeitet hat Pressemitteilung.

Wang sagt, dass genaue Nachrichten und gefälschte Nachrichten für dasselbe Ereignis oft unterschiedliche Inh altsstile verwenden und Computermodelle verwirren, indem sie sie als Nachrichten für verschiedene Ereignisse behandeln.

Das Modell der Macquarie University „zerlegt“die Informationen jeder Nachricht in zwei Teile: die Zeichen, die zeigen, ob die Nachricht gefälscht ist, und die ereignisspezifischen Informationen, die das Thema oder Ereignis zeigen, um das sich die Nachricht handelt. Das Modell sucht dann nach Mustern, wie Benutzer zwischen verschiedenen Nachrichten wechseln, um vorherzusagen, welches Nachrichtenereignis der Benutzer als Nächstes lesen möchte.

Das Forschungsteam trainierte das Modell mit einem öffentlichen Datensatz gefälschter Nachrichten, der auf GitHub namens FakeNewsNet veröffentlicht wurde und gefälschte Nachrichten von PolitiFact und GossipCop zusammen mit Daten wie Nachrichteninh alten, sozialem Kontext und Leseverläufen der Benutzer speichert.

Die Zunahme gefälschter Nachrichten

Fake News sind laut Studien ein wachsendes Problem. NewsGuard hat festgestellt, dass ein erheblicher Teil des Wachstums in den sozialen Medien auf unzuverlässige Websites zurückzuführen ist. Im Jahr 2020 stammten 17 Prozent des Engagements unter den Top-100-Nachrichtenquellen von Websites mit einer roten Bewertung (im Allgemeinen unzuverlässig), verglichen mit etwa 8 Prozent im Jahr 2019.

Subramaniam Vincent, Direktorin für Journalismus und Medienethik am Markkula Center for Applied Ethics an der Santa Clara University, sagte Lifewire in einem E-Mail-Interview, dass KI helfen kann, Desinformation entgegenzuwirken.

Die Technologie kann zur „Überwachung des Kontoverh altens auf orchestriertes Teilen, das mit Hassreden oder bereits entlarvten Behauptungen korreliert oder von Faktenprüfern oder bekannten propagandistischen staatlichen Stellen oder aufstrebenden Gruppen mit raschem Mitgliederzuwachs entlarvt wird, verwendet werden“, erklärte Vincent. "KI kann auch zusammen mit Design verwendet werden, um Inh alte bestimmter Art zu kennzeichnen, um Reibungspunkte zu schaffen, bevor sie geteilt werden."

Image
Image

AbdAlmageed sagte, dass soziale Netzwerke Erkennungsalgorithmen für gefälschte Nachrichten als Teil ihrer Empfehlungsalgorithmen integrieren müssen. Das Ziel, sagte er, sei es, „gefälschte Nachrichten als gefälscht oder nicht korrekt zu kennzeichnen, wenn sie das Teilen gefälschter Nachrichten nicht vollständig verhindern wollen.“

Das heißt, während KI nützlich sein könnte, um gefälschte Nachrichten zu bekämpfen, hat der Ansatz seine Nachteile, sagte Vincent. Das Problem ist, dass KI-Systeme die Bedeutung menschlicher Sprache und Schrift nicht verstehen können, also werden sie immer hinter der Kurve her sein.

"Je genauer die KI mit einigen Formen von offener Hassrede und Desinformation umgehen kann, desto mehr wird sich die menschliche Kultur auf neuere Codes und unterirdische Bedeutungsübermittlungen zubewegen, um sie zu organisieren", sagte Vincent.

Wasim Khaled, CEO des Desinformationsüberwachungsunternehmens Blackbird. AI, sagte in einer E-Mail an Lifewire, dass Online-Desinformation eine sich entwickelnde Bedrohung sei. Neue KI-Systeme müssen vorhersagen können, wo als nächstes Fake News auftauchen werden.

"In den meisten Fällen kann man ein KI-Produkt nicht bauen und es fertig nennen", sagte Khaled. "Verh altensmuster ändern sich im Laufe der Zeit, und es ist wichtig, dass Ihre KI-Modelle mit diesen Änderungen Schritt h alten."

Empfohlen: