Key Takeaways
- Die automatische Altersbeschränkungssoftware von YouTube gibt Anlass zur Sorge für LGBTQ+-Inh alte auf der Plattform.
- Das Unternehmen wurde von Kontroversen über die Ersteller von LGBTQ+-Inh alten getrübt, die Zweifel zementieren.
- Voreingenommenheit beim maschinellen Lernen verleiht der Vorstellung Glaubwürdigkeit, dass seine unvollkommene Implementierung von Filtern wahrscheinlich den Zugriff ungerechtfertigterweise einschränkt.
Nachdem die neue KI-basierte Technologie von YouTube in der Vergangenheit unfair auf Ersteller von LGBTQ+-Inh alten in ihrem Moderationsprozess abzielte, wird sie als beunruhigender nächster Schritt für den Technologieriesen angesehen.
Letzte Woche enthüllte die Video-Sharing-Plattform im offiziellen YouTube-Blog Pläne zur Veröffentlichung einer neuen automatischen Software, um "Altersbeschränkungen konsequenter anzuwenden" auf Videos, die für jüngere Zuschauer als unangemessen erachtet werden.
Motiviert durch die jüngsten Bedenken in Bezug auf Kinder in der App basiert das neue System auf maschinell lernender Software für künstliche Intelligenz mit der Fähigkeit, für einen automatisierteren Prozess auf menschliche Moderatoren zu verzichten. Die Angelegenheit? Den automatisierten Systemen von YouTube wurde vorgeworfen, LGBTQ+-Inh alte und -Ersteller nur wegen ihrer Existenz herausgegriffen zu haben.
Auch wenn es nicht böswillig ist, was ich nicht glaube, ist es ein Mangel an Input von verschiedenen Stimmen - oder zumindest ein Mangel an Respekt.
"Maschinelles Lernen wird von Menschen informiert und geschaffen, und es ist möglich, dass diese Vorurteile inhärent sind oder von der Maschine selbst gelernt werden", sagte YouTuber Rowan Ellis in einem Telefoninterview mit Lifewire. „Seine Voreingenommenheit in Bezug auf [LGBTQ+]-Inh alte war in den früheren Erfahrungen von [LGBTQ+]-YouTubern offensichtlich, und ich habe keine Beweise dafür gesehen, dass irgendetwas getan wurde, um dies zu verhindern."
Baby, jetzt haben wir böses Blut
Ellis ist eine YouTuberin, die Bildungsinh alte mit einer feministischen und queeren Neigung erstellt, und 2017 veröffentlichte sie ein Video über den eingeschränkten Modus des Unternehmens. Als erster Ausflug in die automatische Inh altsmoderation ermöglichte dieser Modus den Benutzern, optional „potenziell nicht jugendfreie Inh alte“aus Suchvorschlägen und Empfehlungen vorab zu prüfen.
Mit über 100.000 Aufrufen glaubt sie, dass bewusst versucht wurde, ihren Kanal von der Beschränkung auszuschließen, da sie lautstark gegen die Exzesse von YouTubes neuem Schritt in Richtung Moderation war. Andere Nutzer auf der Plattform hatten nicht so viel Glück und haben YouTube darauf aufmerksam gemacht.
Eine Sammelklage gegen YouTube wurde im August 2019 von einer Gruppe von acht LGBTQ+-Erstellern eingereicht, die das Unternehmen aus dem Silicon Valley beschuldigten, queere und transsexuelle Videomacher und Inh alte eingeschränkt zu haben. In der Klage wird behauptet, dass die Website „rechtswidrige Praktiken zur Regulierung, Verbreitung und Monetarisierung von Inh alten verwendet, die die LGBT-Kläger und die größere LGBT-Gemeinschaft stigmatisieren, einschränken, blockieren, dämonisieren und finanziell schädigen. Es geht immer noch durch die kalifornischen Gerichte.
Maschinelles Lernen wird von Menschen informiert und geschaffen, und es ist möglich, dass diese Vorurteile inhärent sind oder von der Maschine selbst gelernt werden.
Im Juni desselben Jahres erhielt die Plattform eine Flut von Medienaufmerksamkeit, nachdem sie sich geweigert hatte, den populären konservativen Kommentator Steven Crowder wegen einer monatelangen, homophoben Belästigungskampagne gegen den Vox-Journalisten und Moderator Carlos Maza schnell zu rügen. Dies zementierte, was Ellis sagte, ein Muster mit der Online-Plattform, die einzigartigen Herausforderungen zu ignorieren, denen queere Schöpfer gegenüberstehen. Das mangelnde Vertrauen von LGBTQ+-Erstellern in die Fähigkeit von YouTube, für sie zu erscheinen, ist nicht ohne Verdienst.
"Ich glaube nicht, dass sie die Notwendigkeit von Transparenz in Bezug auf soziale Fragen und die Gewährleistung von Gleichberechtigung verstanden haben", sagte sie. „Es gibt immer noch Kinder auf der ganzen Welt, die mit der Vorstellung aufgewachsen sind, dass es falsch ist, schwul zu sein, und wenn sie anfangen, diesen Glauben in Frage zu stellen, aber feststellen, dass er durch eine sichere Suche oder Einschränkung beendet wird, wird dies diese Vorstellung verstärken falsch, unangemessen, erwachsen, pervers und schmutzig ist."
Automatisches Lernen fehlgeschlagen
Mit seiner schmutzigen Geschichte in Bezug auf Ersteller von LGBTQ+-Inh alten auf seiner Plattform tauchen immer noch Bedenken hinsichtlich der Implementierung der Fähigkeit der Software für maschinelles Lernen auf, größere Normen zu erkennen. Don Heider, Executive Director am Markkula Center for Applied Ethics, schlägt vor, dass das Potenzial für Torheit ein zu großes Risiko ist, um zu spielen.
"Es ist schwer zu glauben, dass KI Inh alte aus mehreren Ländern mit unterschiedlichen kulturellen Normen und Standards effektiv regeln kann", schrieb er in einem E-Mail-Interview. "KI wird zu oft als Antwort auf komplexe Fragen angesehen. An diesem Punkt hat KI und die Art und Weise, wie sie erstellt wird, Schwierigkeiten, selbst einfache Aufgaben zu bewältigen, ganz zu schweigen von der Moderation von Inh alten mit beliebiger Komplexität."
YouTube hat sich laut seinem Blog für den Einsatz von KI-Technologie entschieden, weil es an einer konsequenten Moderation durch menschliche Moderatoren mangelte. Der verstärkte Einsatz von computergestützten Filtern zum Entfernen von als ungeeignet erachteten Videos wurde zur Norm, und die Implementierung der gleichen Verfahren für die Altersbeschränkungsrichtlinien wird als logischer nächster Schritt angesehen.
Als Unternehmen, das seine Prozesse nach langjähriger Kritik bezüglich seiner Beziehung zu kindlichen Verbrauchern schrittweise verbessern möchte, kommt diese Entscheidung nicht überraschend.
Ich glaube nicht, dass sie die Notwendigkeit von Transparenz in Bezug auf soziale Fragen und die Gewährleistung von Gleichberechtigung verstanden haben.
Kinder sind zu einer wichtigen Zielgruppe für die Video-Sharing-Site geworden. Im August fand das digitale Videoanalyseunternehmen Tubular heraus, dass neben Musikvideos auch an Kinder gerichtete Inh alte die Monatsendliste der meistgesehenen Videos auf YouTube anführten.
Das Interesse des Unternehmens, dieses lukrative, aufstrebende Kraftwerk auf der Plattform zu schützen, ist sinnvoll. Die zur Durchsetzung dieses Schutzes verwendeten Tools bleiben jedoch für diejenigen unbequem, die sich bereits hinter den Moderationsverfahren des Unternehmens befinden.
"Ich mache mir Sorgen, dass es viel Schaden anrichtet und [LGBTQ+]-Jugendliche nicht schützt, die informative, offene und ehrliche Inh alte benötigen, die viele [LGBTQ+]-YouTuber bereitstellen könnten, aber in ihrem System gemeldet werden als unangemessen", sagte Ellis.„Auch wenn es nicht böswillig ist, was ich nicht glaube, ist es ein Mangel an Input von verschiedenen Stimmen – oder zumindest ein Mangel an Respekt.
"Wir sehen das ständig in der Technik. Wenn Sie sich die Gesichtserkennung ansehen, die verschiedene schwarze Gesichter nicht unterscheiden kann, oder wenn wir uns die Medizin ansehen und feststellen, dass Medikamente nur an einem bestimmten Geschlecht getestet wurden. Diese sind größere Unterh altungen, und YouTube ist davon nicht ausgenommen."