KI-Philosophie-Serie: Rassismus per Software

Mirko Walter
Student Artificial Intelligence & Machine Learning HSLU
  • 30.11.2022
  • 5 min
KI, Kunst und Kritik: Studierende schreiben Essays über philosophisch-ethische Fragen rund um die Künstliche Intelligenz (KI). Etwa darüber, wie die biometrische Gesichtserkennung Vorurteile und Rassenmuster untermauert. Mehr dazu in dieser sechsten Folge unserer 8-teiligen KI-Philosophie-Serie.

Die Gesichtserkennung ist eine Form Künstlicher Intelligenz. Sie bildet eine wichtige Grundlage für zahlreiche Applikationen: beispielsweise für Überwachungssysteme, Video-Konferenzen, verschiedene Mensch-Geräte-Interaktionen oder inhaltsbasierte Bilderabrufe.

Das menschliche Gesicht enthält eine Vielzahl von Informationen, die adaptive soziale Interaktionen und eine Kategorisierung demografischer Merkmale erlauben. Angesichts der Tatsache, dass Menschen bei der Gesichtswahrnehmung einen Rassen-Effekt zeigen, wird auch die Genauigkeit von Gesichtserkennungsalgorithmen untersucht.

So funktioniert Gesichtserkennung. Die Technologie kommt bei der Verbrechensbekämpfung ebenso zum Einsatz wie beim Online-Banking oder bei Apps auf dem Smartphone.

 

Studien haben bewiesen, dass Gesichtsidentifikations-Algorithmen Schwierigkeiten mit der korrekten Aufzeichnung dunkelhäutiger Gesichter haben. Deshalb ist es in der Entwicklung solcher Systeme schon zu fragwürdigen Vorfällen gekommen: So hat die Gesichtserkennungs-Software von Amazon beispielsweise diverse US-amerikanische Politikerinnen und Politiker fälschlicherweise mit Polizeifotos von Kriminellen abgeglichen. Dabei stellt sich die Frage, ob Gesichtserkennungs-Algorithmen rassistischen Vorurteilen (racial bias) unterliegen und wieso.

Drei Beispieleaus einer langen Liste von Fehlidentifikationen durch eine Gesichtserkennungs-Software: Diese drei US-amerikanischen Abgeordneten wurden fälschlicherweise mit Fahndungsbildern von Kriminellen abgeglichen (Bildquelle: Wikipedia).
Drei Beispieleaus einer langen Liste von Fehlidentifikationen durch eine Gesichtserkennungs-Software: Diese drei US-amerikanischen Abgeordneten wurden fälschlicherweise mit Fahndungsbildern von Kriminellen abgeglichen (Bildquelle: Wikipedia).

Die menschliche Kognition, die die Anhaltspunkte unserer Wahrnehmung konstruiert, ist selektiv, erlernt, kulturell geprägt, konstant und verzerrt. Das erklärt verschiedene abgespeicherte Biases über Rassen und Ethnien. Die Technologie der Gesichtserkennung arbeitet ebenfalls mit Anhaltspunkten: So benutzt sie beispielsweise die Augen als Fokalpunkt für die Vektor-Berechnung der Proportionen eines menschlichen Gesichts. Ebenso benutzt sie den Beleuchtungskontrast, um die Hautfarbe aufzuzeichnen.

Mangelnde Beleuchtung und Bildqualität verschlechtern das Ergebnis

Während Menschen wegen subjektiver Umweltfaktoren und erlernter Vorurteile zwischen Rassen und Ethnien unterscheiden, scheitern Algorithmen hingegen beispielsweise bei unzureichender Beleuchtung der Bildaufnahme oder fehlenden Fokalpunkten für die Berechnung der Proportionen. Aufgrund dieser objektiven Funktionsweise lassen sich zum Beispiel fehlerhafte Face-IDs bei interaktiven Geräten oder Videokonferenzen erklären, da die Bildqualität der Nutzenden mitwirkt.

Die menschliche Wahrnehmung ist selektiv, erlernt, kulturell geprägt und verzerrt. Die Technologie der Gesichtserkennung arbeitet auf die gleiche Weise.

Anders verhält es sich bei Sicherheitsprogrammen, die unter gleichbleibenden Bedingungen arbeiten, wie etwa bei Polizeifotos: Mehrere Forschende haben fehlerhafte Gesichtserkennung in solchen Fällen mit verschiedenen Argumenten untermauern können. Unregelmässige Verteilungsparameter, welche die Gesellschaft charakterisieren, können als datengetriebene Probleme einwirken. Oder das Problem liegt bei den Schwellenwerten oder der mangelhaften Formulierung der Kontrolle demografischer Homogenität der Nutzenden.

Das zeigt, dass der Fehler in der Konstruktion solcher Algorithmen liegt und nicht in deren Funktion. Die Tatsache, dass ein Rassenmuster bereits existiert, hindert Gesichtserkennungs-Algorithmen aber nicht daran, es Tag für Tag zu verstärken und unabhängig zur Aufrechterhaltung des Problems beizutragen.

 

WeiterfĂĽhrende Links:

 

Frage in die Runde: Wie sollen Gesichtserkennungs-Softwares von Biases befreit werden? Was forderst du? Schreibe es in die Kommentare.

KI-Philosophie-Serie: Mirko Walter ist Student des Bachelor-Studiengangs Artificial Intelligence & Machine Learning. Er hat den obenstehenden Beitrag im Rahmen seines Studiums geschrieben. Sein Beitrag wurde geprüft und redaktionell aufbereitet. Er ist Teil einer 8-teiligen Blog-Serie mit bestbenoteten Essays von Studierenden.

Der betreffende Studiengang nimmt die Implikation der Technik ernst. Daher lernen die Studierenden nicht nur, KI einzusetzen, sondern diese auch nachhaltig, sicher und ethisch verantwortbar umzusetzen. Als Basis dafür dient unter anderem ein Philosophie-Modul unter der Leitung von Peter A. Schmid und Orlando Budelacci. Die Hochschule Luzern setzt dabei auf Interdisziplinarität: Dieses Modul zeigt beispielhaft, wie sich drei Departemente – Informatik, Soziale Arbeit und Design & Kunst – fachübergreifend einem Zukunftsthema zuwenden.

Kommentare