KI-Kriminalitätsvorhersage könnte die falschen Leute beschuldigen

Inhaltsverzeichnis:

KI-Kriminalitätsvorhersage könnte die falschen Leute beschuldigen
KI-Kriminalitätsvorhersage könnte die falschen Leute beschuldigen
Anonim

Key Takeaways

  • Ein Softwareunternehmen sammelt Berichten zufolge Informationen aus sozialen Medien, um Profile zu erstellen, die zur Identifizierung von Personen verwendet werden können, die Sicherheitsrisiken darstellen.
  • Voyager Labs hat einen bedeutenden Deal mit einer japanischen Regierungsbehörde abgeschlossen.
  • Aber Experten warnen davor, dass KI-Vorhersagesoftware getäuscht werden kann.
Image
Image

Ihre Online-Informationen könnten verwendet werden, um vorherzusagen, ob Sie eine Straftat begehen könnten.

Voyager Labs sammelt Berichten zufolge Informationen aus sozialen Medien, um Profile zu erstellen, die verwendet werden können, um Personen zu identifizieren, die Sicherheitsrisiken darstellen. Es ist Teil einer wachsenden Anstrengung, künstliche Intelligenz (KI) einzusetzen, um potenzielle Kriminelle zu untersuchen. Einige Experten sagen jedoch, dass die Bewegung voller potenzieller Probleme ist.

"Es ist sehr schwer, menschliches Verh alten vorherzusagen", sagte Matthew Carr, ein Sicherheitsforscher der Atumcell Group, Lifewire in einem E-Mail-Interview. „Wir sind nicht einmal in der Lage, unser eigenes Verh alten vorherzusagen, geschweige denn das eines anderen. Ich h alte es für möglich, dass KI in Zukunft für diesen Zweck verwendet werden könnte, aber wir sind derzeit noch weit davon entfernt, dies zu tun.“"

Profile erstellen

Wie The Guardian kürzlich berichtete, prüfte die Polizei von Los Angeles, ob sie die Verbrechensvorhersage-Software von Voyager Lab verwenden könnte. Das Unternehmen gab außerdem bekannt, dass es einen bedeutenden Deal mit einer japanischen Regierungsbehörde abgeschlossen hat.

Das japanische Abkommen stellt der Regierungsbehörde eine KI-basierte Untersuchungsplattform zur Verfügung, die riesige Mengen an Informationen aus beliebigen Quellen analysiert, einschließlich Open und Deep Data.

"Ich freue mich, dass wir im Kampf gegen Terror und Kriminalität zusammenarbeiten", sagte Divya Khangarot, Managing Director APAC bei Voyager Labs, in der Pressemitteilung. „Mit den hochmodernen Intelligence-Lösungen von Voyager Lab erh alten unsere Kunden einzigartige Fähigkeiten, um potenzielle Bedrohungen proaktiv zu identifizieren und zu unterbinden. und schlechte Schauspieler."

Nicht so schlau?

Aber in einem E-Mail-Interview bezweifelte Matt Heisie, der Mitbegründer von Ferret.ai, das ebenfalls KI zur Vorhersage von Straftätern verwendet, einige der Behauptungen von Voyager Labs.

"Gibt es eine ebenso klare Verbindung zwischen, sagen wir, einer Verhaftungsakte und zukünftigem kriminellen Verh alten, wie es einen schwarzen Fleck bei einem Test und der Entwicklung eines Tumors gibt?" er sagte. „Denken Sie an all die möglichen Verwirrungen, die bei dieser Festnahme eine Rolle gespielt haben – in welcher Nachbarschaft die Person lebte, die Quantität und Qualität, sogar Vorurteile, der Polizei in diesem Bereich. Das Alter der Person, ihr Geschlecht, ihre körperliche Erscheinung, all dies hat sich überschneidende Auswirkungen auf die Wahrscheinlichkeit, dass diese Person eine Verhaftungsakte hat, völlig getrennt von ihrer tatsächlichen Neigung, das Verbrechen zu begehen, das wir vorherzusagen versuchen."

Angeklagte mit besseren Anwälten können mit größerer Wahrscheinlichkeit verhindern, dass Aufzeichnungen öffentlich zugänglich werden, sagte Heisie. Einige Gerichtsbarkeiten schränken die Veröffentlichung von Fahndungsfotos oder Verhaftungsaufzeichnungen ein, um den Angeklagten zu schützen.

"Der Computer lernt basierend auf den Daten, die Sie ihm geben, und berücksichtigt alle Vorurteile, die in diese Datensammlung eingeflossen sind…"

"All dies fügt den Algorithmen weitere Verzerrungen hinzu", fügte er hinzu. "Der Computer lernt basierend auf den Daten, die Sie ihm geben, und integriert alle Vorurteile, die in diese Datensammlung eingeflossen sind, in das Lernen und die Interpretation."

Es gab mehrere Versuche, KIs zur Verbrechensvorhersage zu entwickeln, und mit oft skandalösen Ergebnissen, sagte Heisie.

COMPAS, ein Algorithmus, den Strafverfolgungsbehörden verwenden, um Rückfälle vorherzusagen, wird häufig bei der Bestimmung von Strafmaß und Kaution verwendet. Es war mit einem Skandal konfrontiert, der bis ins Jahr 2016 wegen rassistischer Vorurteile zurückreicht und voraussagte, dass schwarze Angeklagte ein höheres Rückfallrisiko darstellten, als sie es tatsächlich taten, und das Gegenteil für weiße Angeklagte.

Über 1.000 Technologen und Gelehrte, darunter Akademiker und KI-Experten von Harvard, MIT, Google und Microsoft, sprachen sich 2020 gegen ein Papier aus, in dem behauptet wurde, Forscher hätten einen Algorithmus entwickelt, der Kriminalität allein auf der Grundlage von a Gesicht einer Person und sagte, dass die Veröffentlichung solcher Studien bereits bestehende rassistische Vorurteile im Strafjustizsystem verstärkt, bemerkte Heisie.

Image
Image

China ist der größte und am schnellsten wachsende Markt für diese Art von Technologie, vor allem aufgrund des weit verbreiteten Zugriffs auf private Daten, mit mehr als 200 Millionen Überwachungskameras und fortschrittlicher KI-Forschung, die sich seit vielen Jahren auf dieses Thema konzentriert, sagte Heisie. Systeme wie die Police Cloud von CloudWalk werden jetzt verwendet, um Kriminelle vorherzusagen und zu verfolgen und Strafverfolgungsbehörden zu lokalisieren.

"Allerdings werden auch dort erhebliche Vorurteile gemeldet", sagte Heisie.

Heisie fügte hinzu, dass sein Unternehmen die eingehenden Daten sorgfältig kuratiert und keine Fahndungsfotos oder Verhaftungsaufzeichnungen verwendet, sondern „sich stattdessen auf objektivere Kriterien konzentriert.“

"Unsere KI hat aus den kuratierten Daten gelernt, aber was noch wichtiger ist, sie lernt auch von Menschen, die selbst Aufzeichnungen analysieren, kuratieren und bewerten und uns über ihre Interaktionen mit anderen berichten", fügte er hinzu. "Wir wahren außerdem volle Transparenz und freien und öffentlichen Zugang zu unserer Anwendung (so schnell wie wir sie in die Beta-Phase lassen können) und begrüßen Einblicke in unsere Prozesse und Verfahren."

Empfohlen: