Rassenvoreingenommenheit des Twitter-Algorithmus weist auf ein größeres technisches Problem hin

Inhaltsverzeichnis:

Rassenvoreingenommenheit des Twitter-Algorithmus weist auf ein größeres technisches Problem hin
Rassenvoreingenommenheit des Twitter-Algorithmus weist auf ein größeres technisches Problem hin
Anonim

Key Takeaways

  • Twitter hofft, dem entgegenzuwirken, was Benutzer in ihrer Bildvorschau-Software als rassistische Voreingenommenheit bezeichnen.
  • Der Aufruf des Technologieriesen könnte die kulturelle Abrechnung sein, die die Branche braucht, um Fragen der Vielf alt anzugehen.
  • Die mangelnde Diversität der Technologie beeinträchtigt die Wirksamkeit ihrer technologischen Fortschritte.
Image
Image

Twitter wird eine Untersuchung seines Algorithmus zum Zuschneiden von Bildern einleiten, nachdem dieser zu einem Trendthema geworden ist, das zu einer größeren Diskussion über Diversity-Themen in der Technologiebranche geführt hat.

Der Social-Media-Moloch machte Schlagzeilen, nachdem Benutzer offensichtliche rassistische Vorurteile in seinem Bildvorschau-Algorithmus entdeckt hatten. Die Entdeckung geschah, nachdem der Twitter-Nutzer Colin Madland die Plattform benutzt hatte, um Zooms Versäumnis anzuprangern, seine schwarzen Kollegen zu erkennen, die die Green-Screen-Technologie verwendeten, aber in einer großen Show der Ironie stellte er fest, dass sich der Bildzuschneide-Algorithmus von Twitter ähnlich verhielt und schwarze Gesichter depriorisierte.

Sicherlich ist es ein großes Problem für jede Minderheit, aber ich denke, es gibt auch ein viel umfassenderes Problem.

Andere Benutzer schlossen sich dem Trend an und lösten eine Reihe von viralen Tweets aus, die zeigten, dass der Algorithmus konsequent weiße und hellhäutige Gesichter priorisierte, von Menschen über Zeichentrickfiguren bis hin zu Hunden. Dieses Scheitern weist auf eine größere kulturelle Bewegung in der Technologiebranche hin, die es konsequent versäumt hat, Minderheitengruppen zu berücksichtigen, was auf die technische Seite übergegriffen hat.

"Es gibt Minderheiten das Gefühl, dass sie nicht wichtig sind, und es kann für andere Dinge verwendet werden, die auf der ganzen Linie ernsthafteren Schaden anrichten können", Erik Learned-Miller, Professor für Informatik an der Universität aus Massachusetts, sagte in einem Telefoninterview."Sobald Sie entschieden haben, wofür eine Software verwendet werden kann und welche Schäden auftreten können, beginnen wir, darüber zu sprechen, wie Sie die Wahrscheinlichkeit minimieren können, dass diese auftreten."

Canary auf der Timeline

Twitter verwendet neuronale Netze, um in Tweets eingebettete Bilder automatisch zuzuschneiden. Der Algorithmus soll Gesichter für die Vorschau erkennen, scheint jedoch eine merkliche weiße Verzerrung zu haben. Unternehmenssprecherin Liz Kelley twitterte eine Antwort auf alle Bedenken.

Kelley twitterte: „Vielen Dank an alle, die das angesprochen haben. Wir haben vor der Auslieferung des Modells auf Voreingenommenheit getestet und bei unseren Tests keine Hinweise auf rassistische oder geschlechtsspezifische Vorurteile gefunden, aber es ist klar, dass wir noch mehr analysieren müssen tun. Wir werden unsere Arbeit als Open Source veröffentlichen, damit andere sie überprüfen und replizieren können."

Co-Autor des Whitepapers "Facial Recognition Technologies in the Wild: A Call for a Federal Office", Learned-Miller ist ein führender Forscher zu den Exzessen gesichtsbasierter KI-Lernsoftware. Er diskutiert seit Jahren die möglichen negativen Auswirkungen von Bildlernsoftware und hat darüber gesprochen, wie wichtig es ist, eine Realität zu schaffen, in der diese Vorurteile nach besten Kräften gemildert werden.

Viele Algorithmen für die Gesichtserkennungstechnologie verwenden Referenzsätze für Daten, oft als Trainingssätze bekannt, bei denen es sich um eine Sammlung von Bildern handelt, die zur Feinabstimmung des Verh altens von Bildlernsoftware verwendet werden. Letztendlich ermöglicht es der KI, eine Vielzahl von Gesichtern leicht zu erkennen. Diesen Referenzsets kann jedoch ein vielfältiger Pool fehlen, was zu Problemen führt, wie sie das Twitter-Team erlebt hat.

"Sicherlich ist es ein großes Problem für jede Minderheit, aber ich denke, es gibt auch ein viel umfassenderes Problem", sagte Learned-Miller. "Es hängt mit einem Mangel an Vielf alt im Technologiesektor und der Notwendigkeit einer zentralisierten Regulierungsbehörde zusammen, um die ordnungsgemäße Verwendung dieser Art von leistungsstarker Software aufzuzeigen, die anfällig für Missbrauch und Missbrauch ist."

Technologie ohne Vielf alt

Twitter ist vielleicht das neueste Technologieunternehmen auf dem Hackklotz, aber das ist alles andere als ein neues Problem. Der Technologiebereich bleibt ein überwiegend weißes, ständig von Männern dominiertes Feld, und Forscher haben herausgefunden, dass der Mangel an Vielf alt eine Replikation systemischer, historischer Ungleichgewichte in der entwickelten Software verursacht.

In einem Bericht des AI Now Institute der New York University aus dem Jahr 2019 fanden Forscher heraus, dass Schwarze weniger als 6 Prozent der Belegschaft der führenden Technologieunternehmen des Landes ausmachen. Ebenso machen Frauen nur 26 Prozent der Arbeiter in diesem Bereich aus – eine Statistik, die niedriger ist als ihr Anteil im Jahr 1960.

Es gibt Minderheiten das Gefühl, dass sie nicht wichtig sind, und es kann für andere Dinge verwendet werden, die auf der ganzen Linie ernsthafteren Schaden anrichten können.

An der Oberfläche mögen diese Repräsentationsprobleme banal erscheinen, aber in der Praxis kann der verursachte Schaden tiefgreifend sein. Forscher des Berichts des AI Now Institute legen nahe, dass dies ursächlich mit Problemen mit Software zusammenhängt, die häufig nicht weiße und nicht männliche Bevölkerungsgruppen berücksichtigt. Ganz gleich, ob es Infrarot-Seifenspender sind, die dunklere Haut nicht erkennen, oder die KI-Software von Amazon, die weibliche Gesichter nicht von denen ihrer männlichen Gegenstücke unterscheiden kann, ein Versäumnis, die Vielf alt in der Technologiebranche anzugehen, führt zu einem Versagen der Technologie, um mit einer vielfältigen Welt umzugehen.

"Es gibt viele Leute, die die Probleme nicht durchdacht haben und nicht wirklich erkennen, wie diese Dinge Schaden anrichten können und wie erheblich diese Schäden sind", schlug Learned-Miller zum Lernen von KI-Bildern vor. „Hoffentlich schrumpft diese Zahl der Menschen!“

Empfohlen: