Key Takeaways
- Das Aufsichtsgremium von Facebook hat klarere Regeln für Fehlinformationen auf der Social-Media-Website gefordert.
- Das Gremium hat derzeit mehrere Entscheidungen von Facebook aufgehoben, Posts zu entfernen, die es als Fehlinformationen oder Hassreden betrachtete, dies aber nicht wirklich waren.
- Es bedarf klarerer Definitionen dessen, was Fehlinformationen oder Hassreden sind und was nicht, insbesondere angesichts der internationalen Reichweite von Facebook.
Facebooks Aufsichtsgremium, das eingerichtet wurde, um das Entfernen und Moderieren von Posts auf der Website weiter zu überwachen, hat einige frühere Entscheidungen bezüglich gelöschter Posts aufgehoben, was deutlich macht, dass klarere Definitionen und Regeln erforderlich sind.
Die Aufsichtsbehörde nahm ihre ersten fünf Fälle im Dezember 2020 auf. Während einer der in die Überprüfung einbezogenen Posten aus den USA stammte, stammten die Posts insgesamt aus vier verschiedenen Kontinenten, die alle die dort gemachten Aussagen einsehen konnten ganz unterschiedliche Wege. Aus diesem Grund müssen die Richtlinien, die Facebook in Gang setzt, prägnant sein und mit jeder Community funktionieren, auf die sich die Moderationstools möglicherweise konzentrieren.
"Facebooks 'Independent Review'-Aktivität muss über internationale Grenzen hinweg konsistent sein", schrieb uns Jim Isaak, ein ehemaliger Vorsitzender des Institute of Electrical and Electronics Engineers und ein 30-jähriger Veteran der Technologiebranche, via Email. „Aber was in den USA ‚Hassrede‘ist, könnte in anderen autokratischen Gesellschaften als patriotisch definiert werden – was die Komplexität dessen, was getan wird, erhöht.“
Linien im Sand
Dieser Bedarf an Konsistenz und prägnanteren Regeln kommt bereits ins Spiel. Von den fünf Fällen, die das Aufsichtsgremium von Facebook im Dezember übernahm, beschloss die Gruppe, vier der Fälle aufzuheben, wobei zwei von ihnen deutlich die Notwendigkeit einer besseren Moderation zeigten.
In einem der aufgehobenen Fälle entschied das Gremium zugunsten einer Frau, deren Instagram-Post über Brustkrebs automatisch von der Website entfernt wurde, weil sie gegen die Richtlinie zu Nacktheit und sexueller Aktivität von Erwachsenen verstoßen hatte.
Während Facebook das Foto bereits wiederhergestellt hatte, erhob der Vorstand Einspruch dagegen, es überhaupt zu entfernen. Der Vorstand empfahl sogar, dass Facebook ein Beschwerdesystem einrichtet, das es den Benutzern ermöglicht, zu sehen, wann ein Beitrag entfernt wurde, warum er entfernt wurde, und sogar Möglichkeiten vorzuschlagen, mit einem Menschen zu sprechen, um eine Lösung zu finden.
Das Board stellte fest, dass die Frau zwar einen Beitrag mit unbedeckten und sichtbaren weiblichen Brustwarzen geteilt hatte, das Foto aber nicht gegen die Community-Richtlinien von Instagram verstoßen hatte. Der Standard für Nacktheit und sexuelle Aktivität bei Erwachsenen, den Facebook in seinen Community-Standards aufrechterhält, erlaubt Nacktheit, wenn der Benutzer versucht, das Bewusstsein aus medizinischen oder anderen Gründen zu schärfen.
Ein weiterer Beitrag, der aus Myanmar geteilt wurde, enthielt Äußerungen über Muslime, die laut dem Vorstand als beleidigend angesehen werden könnten, aber nicht das Niveau von Hassreden erreichten, um zu rechtfertigen, dass sie entfernt oder als gegen die Regeln verstoßen werden.
Hier wird es besonders knifflig.
Welcher Weg ist oben?
"Facebook ist international tätig", teilte Isaak Lifewire per E-Mail mit. „Jede Gerichtsbarkeit hat ihre eigenen Regeln und Facebook kann gemäß denen in anderen Ländern zur Rechenschaft gezogen werden.“
Facebook muss alle Regeln der Gebiete, in denen es tätig ist, berücksichtigen, wenn es neue Richtlinien aufstellt. Indem Facebook die Richtlinien unklar macht, lässt es Raum für Fehler, die dazu führen könnten, dass die Aufsichtsbehörde in Zukunft weitere Fälle aufheben muss.
Da die Verbreitung von Hassreden und Fehlinformationen so weit verbreitet ist – insbesondere in sozialen Medien wie Facebook und Twitter – ist es für diese Unternehmen wichtig, klare Richtlinien anzubieten, die dann verwendet werden können, um die Community zu moderieren.
Was in den USA „Hassrede“ist, könnte in anderen autokratischen Gesellschaften als patriotisch definiert werden…
Natürlich gibt es immer noch andere Möglichkeiten, diese Art von Problemen zu lindern. Tatsächlich wurde einer der Fälle, die das Board ursprünglich im Dezember beaufsichtigen sollte, aus der Akte entfernt, nachdem der Benutzer den Beitrag gelöscht hatte.
Benutzergenerierte Moderation ist etwas, das wir bereits auf Websites wie Wikipedia erfolgreich gesehen haben, und kürzlich hat Twitter selbst mit der Veröffentlichung von Birdwatch, einem von der Community betriebenen Moderationssystem, einen Schritt nach vorne gemacht, um die Verbreitung von Fehlinformationen zu stoppen.
Diese Methoden haben jedoch andere Probleme, weshalb es für Facebook von entscheidender Bedeutung sein wird, eine Standardgrundlage für die Erwartungen der Community zu erh alten, damit Facebook in Zukunft eine bessere Moderation seiner Apps und Websites anbieten kann.