Warum die Verwendung der Gesichtserkennung zur Durchsetzung von Regeln keine gute Idee ist

Inhaltsverzeichnis:

Warum die Verwendung der Gesichtserkennung zur Durchsetzung von Regeln keine gute Idee ist
Warum die Verwendung der Gesichtserkennung zur Durchsetzung von Regeln keine gute Idee ist
Anonim

Key Takeaways

  • Tencent hat eine Gesichtserkennungstechnologie entwickelt, um Kinder beim Videospielen nach einer staatlich verordneten Ausgangssperre zu erwischen.
  • Elternkontrolle, ohne dass die Eltern über die Schultern der Kinder wachen, ist nichts Neues.
  • Experten sagen, dass Probleme mit durch Gesichtserkennung erzwungenen Regeln persönliche Privatsphäre und Genauigkeit beinh alten.
Image
Image

Das chinesische Spieleunternehmen Tencent setzt Gesichtserkennungstechnologie ein, um eine Ausgangssperre für Minderjährige durchzusetzen, und Experten sagen, dass eine Welt von technisch erzwungenen Regeln nicht mehr weit entfernt ist.

Gesichtserkennungssoftware ist keine neue Technologie, aber je fortschrittlicher sie wird, desto kontroverser wird sie verwendet, abgesehen vom bloßen Entsperren unserer Smartphones. Dr. Vir Phoha, Professor am College of Engineering and Computer Science der Syracuse University, sagte, es gebe viele Bedenken bei der Verwendung der Gesichtserkennung zur Durchsetzung von Regeln, aber diese hebt sich besonders von den anderen ab.

„Meine größte Sorge ist, dass … die Privatwirtschaft zu einem Instrument des Staates wird, um Gesetze durchzusetzen“, sagte Phoha Lifewire am Telefon. „Und das ist wichtig, weil es möglicherweise nicht genügend Kontrollmechanismen innerhalb der Privatindustrie gibt, um sicherzustellen, dass es Transparenz darüber gibt, wie die Dinge intern erledigt werden.“

Kindersicherung ohne die Eltern

Tencent sagte, es verwende Gesichtserkennungstechnologie, um Kinder beim Spielen von Videospielen bis spät in die Nacht zu erwischen. China hat 2019 ein Gesetz verabschiedet, das eine Ausgangssperre für Spieler unter 18 Jahren erzwingt und die Zeit, die mit einem Spiel verbracht wird, auf Wochentags- und Wochenendstunden beschränkt. Obwohl die Technologie invasiv erscheint, wurde sie entwickelt, um das Problem zu lösen, dass Kinder gegen die Ausgangssperre verstoßen.

Laut Digital Trends scannt die als „Midnight Patrol“bekannte Technologie das Gesicht einer Person vom Computerbildschirm, um es einem registrierten Namen und Gesicht zuzuordnen, und verfolgt entsprechend ihre Spielzeit.

Image
Image

Auch wenn manche Eltern ein zweites Auge darauf begrüßen würden, dass ihre Kinder die Regeln befolgen, kann Technologie wirklich ein Elternteil ersetzen?

„Ich denke, es gibt einen Konflikt zwischen elterlichen Rechten und elterlichen Pflichten. Und bei staatlich vorgeschriebenen Dingen sind die Eltern normalerweise die besten Richter “, sagte Phoha.

Obwohl sich diese spezielle Technologie in China befindet, genehmigte die Federal Trade Commission 2015 eine überprüfbare Methode der elterlichen Zustimmung, die es Unternehmen ermöglicht, Gesichtserkennungstechnologie zu verwenden, um die Zustimmung der Eltern einzuholen. Diese Technologie unterscheidet sich ein wenig dadurch, dass sie darauf ausgerichtet ist, die Gesichter der Eltern zu scannen, bevor Kinder auf bestimmte Inh alte zugreifen können, um sicherzustellen, dass ein Elternteil damit einverstanden ist. Phoha sagte jedoch, dass eine Kamera in Ihrem Haus, die Dinge überwacht, Sie für potenzielle Probleme öffnet.

„Wenn eine Kamera im Haus erlaubt ist, wie z. B. ein Dritter, der Zugang zu meinem Haus gewährt, wenn mein Kind spielt, denke ich, dass das ein großes, großes Problem ist“, sagte er.

Probleme mit erzwungenen Gesichtserkennungsregeln

Abgesehen von den ethischen Fragen staatlich vorgeschriebener Regeln oder der Übernahme der Rolle eines Elternteils, sagte Phoha, dass es bei der Gesichtserkennung immer Probleme mit der Genauigkeit gibt.

"[Gesichtserkennung] kann sehr leicht gefälscht werden, insbesondere wenn sie vor einem Computer und aus der Ferne ausgeführt wird, wie es bei Tencent der Fall ist", sagte er.

Wenn es staatlich vorgeschrieben ist und wenn es Zwangsmaßnahmen gibt oder zu Strafmaßnahmen führt, dann fühle ich mich nicht sehr wohl dabei.“

Wenn die Gesichtserkennung zu einer allgemein akzeptierteren Methode zur Durchsetzung von Regeln würde, könnte dies aufgrund der inhärenten rassistischen Voreingenommenheit der Technologie People of Color erheblich beeinträchtigen. Zahlreiche Studien haben gezeigt, dass die Gesichtserkennung Menschen falsch identifizieren kann, insbesondere solche mit Hautfarbe.

Unter Verwendung der qualitativ hochwertigeren Bewerbungsfotos sind die falsch-positiven Raten bei west- und ostafrikanischen und ostasiatischen Menschen am höchsten und bei osteuropäischen Personen am niedrigsten. Dieser Effekt ist im Allgemeinen groß, mit einem Faktor von 100 mehr falsch positiven Ergebnissen zwischen Ländern “, heißt es in einem Teil einer Studie des NIST aus dem Jahr 2019 zur Demografie der Gesichtserkennung.

Phoha fügte hinzu, dass die Gesichtserkennung in der wissenschaftlichen Forschung in der Lage sei, weit mehr als nur Gesichtsmerkmale zu bestimmen, einschließlich der Erkennung der Herzfrequenz einer Person und der Feststellung, ob eine Person an einer bestimmten Krankheit leidet.

Gesichtserkennungstechnologie kann auch deine Emotionen erkennen. Beispielsweise kann die als Rekignition bekannte Gesichtserkennungssoftware von Amazon Emotionen auf den Gesichtern von Menschen erkennen, einschließlich Angst.

Phoha sagte, dass wir uns mit dieser Art von Technologie einer Welt der Gesichtserkennung/durchgesetzten Überwachung nähern. Er fügte hinzu, dass wir vor einem staatlich vorgeschriebenen Regelsystem zur Gesichtserkennung besonders vorsichtig sein sollten.

"Wenn ich mich bei einem Telefon anmelden und die Gesichtsauthentifizierung verwenden möchte, kann ich das nach eigenem Ermessen tun - es ist meine Wahl und ich kann es so verwenden, wie ich es möchte", sagte er. „Aber wenn es staatlich vorgeschrieben ist und wenn es Zwangsmaßnahmen gibt oder zu Strafmaßnahmen führt, dann fühle ich mich nicht sehr wohl damit.“

Empfohlen: