Wie algorithmische Voreingenommenheit Teenager verletzen kann

Inhaltsverzeichnis:

Wie algorithmische Voreingenommenheit Teenager verletzen kann
Wie algorithmische Voreingenommenheit Teenager verletzen kann
Anonim

Key Takeaways

  • Algorithmische Verzerrung ist schädlich für Teenager, die viel Zeit im Internet verbringen, sagen Experten.
  • Twitter-Nutzer sind kürzlich auf ein Problem gestoßen, bei dem schwarze Gesichter zugunsten weißer aussortiert wurden.
  • Das sich entwickelnde Gehirn von Teenagern ist möglicherweise besonders anfällig für die schädlichen Auswirkungen algorithmischer Voreingenommenheit, sagen Forscher.
Image
Image

Das Vorurteil, das in manche Technologien eingebrannt ist, bekannt als algorithmische Voreingenommenheit, kann für viele Gruppen schädlich sein, aber Experten sagen, dass es Teenagern besonders schadet.

Algorithmische Voreingenommenheit, wenn Computersysteme voreingenommene Ergebnisse zeigen, ist ein wachsendes Problem. Twitter-Nutzer fanden kürzlich ein Beispiel für Voreingenommenheit auf der Plattform, als ein Bilderkennungsalgorithmus, der Fotos zuschneidet, schwarze Gesichter zugunsten weißer ausschneidet. Das Unternehmen entschuldigte sich für das Problem, hat aber noch keine Lösung veröffentlicht. Es ist ein Beispiel für die Voreingenommenheit, mit der Teenager konfrontiert sind, wenn sie online gehen, was sie mehr als jede andere Altersgruppe tun, sagen Experten.

"Die meisten Teenager sind sich nicht bewusst, dass Social-Media-Unternehmen sie eingerichtet haben, um bestimmte Inh alte zu bewerben, von denen sie glauben, dass sie den Benutzern gefallen werden, [um] sie dazu zu bringen, so lange wie möglich auf der Plattform zu bleiben", Dr. Mai- Ly Nguyen Steers, Assistenzprofessorin an der School of Nursing der Duquesne University, die die Nutzung sozialer Medien unter Jugendlichen/Studenten untersucht, sagte in einem E-Mail-Interview.

"Selbst wenn ein gewisses Maß an Bewusstsein über den Algorithmus vorhanden ist, ist der Effekt, nicht genug Likes und Kommentare zu bekommen, immer noch stark und kann das Selbstwertgefühl von Teenagern beeinträchtigen", fügte Steers hinzu.

Gehirne entwickeln

Algorithmische Voreingenommenheit kann Teenager auf unvorhergesehene Weise beeinflussen, da sich ihr präfrontaler Kortex noch entwickelt, erklärte Mikaela Pisani, Chief Data Scientist bei Rootstrap, in einem E-Mail-Interview.

Der Effekt, nicht genug Likes und Kommentare zu bekommen, ist immer noch stark und kann das Selbstwertgefühl von Teenagern beeinträchtigen.

"Teenager sind besonders anfällig für das Phänomen der 'Sozialen Fabrik', bei der Algorithmen soziale Cluster auf Online-Plattformen bilden, was zu Angst und Depression führt, wenn das Bedürfnis des Teenagers nach sozialer Anerkennung nicht erfüllt wird", sagte Pisani. "Algorithmen vereinfachen auf der Grundlage früherer unvollkommener Daten, was zu einer Überrepräsentation von Stereotypen auf Kosten differenzierterer Ansätze zur Identitätsbildung führt.

"Vom breiteren Standpunkt aus betrachtet, müssen wir uns als Gesellschaft auch fragen, ob wir wollen, dass Algorithmen den Weg unserer Teenager ins Erwachsenen alter formen, und unterstützt dieses System das individuelle persönliche Wachstum überhaupt, anstatt es zu unterdrücken?"

Aufgrund dieser Probleme müssen Teenager bei der Entwicklung von Algorithmen immer mehr berücksichtigt werden, sagen Experten.

"Basierend auf den Beiträgen von Entwicklungsspezialisten, Datenwissenschaftlern und Jugendanwälten könnten Richtlinien des 21. Jahrhunderts in Bezug auf Datenschutz und algorithmisches Design auch unter Berücksichtigung der besonderen Bedürfnisse von Jugendlichen entwickelt werden", Avriel Epps-Darling, Doktorandin Student in Harvard, schrieb kürzlich. „Wenn wir stattdessen weiterhin die Anfälligkeit von Teenagern für algorithmischen Rassismus herunterspielen oder ignorieren, werden die Schäden wahrscheinlich über Generationen hinweg nachhallen.“

Voreingenommenheit bekämpfen

Bis es eine Lösung gibt, versuchen einige Forscher Wege zu finden, um den Schaden zu verringern, der jungen Menschen durch voreingenommene Algorithmen zugefügt wird.

"Interventionen konzentrierten sich darauf, Teenagern klarzumachen, dass ihre Social-Media-Muster sich negativ auf ihre psychische Gesundheit auswirken, und versuchten, Strategien zu entwickeln, um dies zu mildern (z. B. reduzierte Nutzung sozialer Medien)", sagte Steers.

"Einige der College-Studenten, die wir befragt haben, haben angegeben, dass sie sich verpflichtet fühlen, Inh alte zu erstellen, die "relevant" bleiben, auch wenn sie nicht rausgehen oder posten wollen", fuhr sie fort. "Allerdings glauben sie, dass sie Inh alte generieren müssen, um ihre Verbindungen zu ihren Followern oder Freunden aufrechtzuerh alten."

Die ultimative Antwort könnte darin bestehen, menschliche Vorurteile von Computern zu entfernen. Aber da Programmierer auch nur Menschen sind, ist das eine große Herausforderung, sagen Experten.

Eine mögliche Lösung besteht darin, Computer zu entwickeln, die dezentralisiert und so programmiert sind, dass sie Dinge vergessen, die sie gelernt haben, sagt John Suit, Chief Technology Officer bei der Robotikfirma KODA.

"Über ein dezentralisiertes Netzwerk werden Daten und die Analyse dieser Daten von mehreren Punkten aus zusammengestellt und analysiert", sagte Suit in einem E-Mail-Interview. „Daten werden nicht von einer einzelnen KI-Gedankenverarbeitung innerhalb der Grenzen ihres Algorithmus gesammelt und verarbeitet, sondern von Hunderten oder sogar Tausenden.

"Während diese Daten gesammelt und analysiert werden, werden alte "Schlussfolgerungen" oder überflüssige Daten vergessen. Durch dieses System wird ein Algorithmus, der möglicherweise mit Voreingenommenheit begonnen hat, diese Voreingenommenheit schließlich korrigieren und ersetzen, wenn sie sich als falsch herausstellt."

Obwohl Voreingenommenheit ein ur altes Problem sein mag, gibt es vielleicht Möglichkeiten, sie zu bekämpfen, zumindest online. Computer zu entwerfen, die unsere Vorurteile ablegen, ist der erste Schritt.

Empfohlen: