Vorurteile in Künstlicher Intelligenz

Da Künstliche Intelligenz hauptsächlich von unseren gesammelten Daten lernt und diese trotz aller Sorgfalt, Vorurteile enthalten können sind wir auch in Zukunft nicht davor gefeilt vorurteilsfrei zu leben.

Künstliche Intelligenz, die mit unseren Daten gefüttert wird, spiegelt somit nur unserer Gesellschaft wider.

Jegliche Technologie wird von Menschen erschaffen und ist somit nicht mehr objektive als wir.

Es gibt viele Möglichkeiten wie Vorurteile durch Maschinen gelernt werden.

z.B. durch Reproduktion vergangener Vorurteile oder Fehler beim Erkennen und Behandeln statistischer Verzerrungen

Werden zu wenige Beurteilungsfaktoren berücksichtig, wirkt sich das ebenso negativ auf die KI aus.

Quelle: https://translate.google.com

Beispiele für Vorurteile in Künstlicher Intelligenz findet man bei Google, Amazon und Co.

Darauf hat Google reagieren müssen, weil seine Übersetzungssoftware Geschlechter spezifisch übersetzt hat. So waren Ärzte bei Türkisch-Deutscher Übersetzung immer Männer und nie Frauen, es wurden aber nicht nur Frauen benachteiligt, sondern auch Männer. Etwa dadurch das nur Frauen mit dem englischen Wort „beautiful“ assoziiert wurden, bei Englisch-Türkischer und Türkisch-Englischer Übersetzung.

Quelle: https://translate.google.com

Auch Alexa und Siri sind vor solchen Fehlern nicht gefeilt. So sind dunkelhäutige Menschen in den Trainingsdaten unterrepräsentiert und werden schlechter verstanden als hellhäutigere Menschen. Weiter unterrepräsentierte Gruppen in Sprachassistenten sind ältere Menschen und Frauen.

Um solche Nachrichten in Zukunft verhindern zu können fordern manche Experten mehr Vielfalt in den Entwicklerteams von KI und mehr Bewusstsein im Umgang mit Vorurteilen.

Die Europäischen Union hat auf dieses und weitere Probleme reagiert und hat Ethik-Leitlinien für eine Vertrauenswürdige KI veröffentlicht.

So heißt es etwa im Fazit der Leitfäden:

“ Eine vertrauenswürdige KI hat drei Komponenten:

1) Sie sollte rechtmäßig sein und die Einhaltung aller geltenden Gesetze und Vorschriften sicherstellen.

2) Sie sollte ethisch sein und die Einhaltung ethischer Grundsätze und Werte sicherstellen.

3) Sie sollte sowohl aus technischer als auch aus sozialer Sicht robust sein, damit sichergestellt ist, dass KI-Systeme auch bei guten Absichten keinen unbeabsichtigten Schaden anrichten. “

Daraus resultiert eine Dringlichkeit an erklärbarer KI um sicher zustellen das Ethische Richtlinien eingehalten werden.

Was sich manchmal als schwerer herausstellt als gedacht, viele Künstliche Netzwerke bestehen aus einer schier unendlichen Anzahl von Schichten.

Diese alle verständliche zu vermitteln würde einfach, extrem lang dauern.

Vielleicht würde es auch schon den meisten Menschen reichen, wenn Sie eine Erklärung erhalten wie „Das ist eine Katze, denn Sie hat spitze Ohren die weit auseinander stehen, Tasthaare an der Schnauze, …“.

Somit liegt es an uns wie wir diese Systeme entwickeln und ob es weiterhin Vorurteile in Künstlicher Intelligenz gibt oder nicht.

Maschinen können in verletzender Art und Weise diskriminieren.

 

Ich habe dies aus erster Hand erlebt, als ich 2015 ein Doktorand am MIT war und entdeckte, dass eine Gesichtsanalyse-Software mein dunkelhäutiges Gesicht erst erkennen konnte, als ich eine weiße Maske aufsetzte. Diese Systeme werden häufig auf Bildern von überwiegend hellhäutigen Männern trainiert. ~ Joy Buolamwini

Werde Teil unseres Newsletters

Werde Teil unseres Newsletters

Damit verpassen Sie keine neuen Beiträge mehr

You have Successfully Subscribed!

Pin It on Pinterest

Share This