Die Künstliche Intelligenz entwickelt sich immer mehr zu einer treibenden Kraft unserer rasch fortschreitenden digitalen Transformation. Doch hinter der schier überwältigenden Intelligenz unserer künstlichen Helferlein stehen Algorithmen, geschrieben von Menschenhand. So übernimmt die KI unweigerlich alte Vorurteile und sexistische Geschlechtervorurteile, die uns leider immer noch begleiten. Das Problem dahinter liegt vor allem in den Datensätzen, so wie in der besorgniserregenden Abwesenheit von Frauen und Minderheiten in den Bereichen künstliche Intelligenz und Data Science.
Und da bereits die Programmierenden vor den Fähigkeiten ihrer eigenen Errungenschaften warnen, wären wir gut beraten, solche Missstände in den Griff zu bekommen, bevor sie uns allen auf den Kopf fallen. Denn auch wenn künstliche Intelligenz auf dem Vormarsch ist, sind es immer noch wir Menschen, die das Ruder in der Hand halten. In einer Welt, in der künstliche Intelligenz immer allgegenwärtiger wird, stellt sich also immer mehr die Frage: Wie gefährlich können mögliche Diskriminierungen durch Algorithmen sein?
Maschinen lernen von uns
Vor einiger Zeit sorgte die Nachricht für Aufsehen, dass KIs Menschen mit dunklerer Hautfarbe fälschlicherweise als Gorillas identifizierten. Ebenso kam es in den USA zu einer Reihe falscher Verhaftungen aufgrund von automatisierter Gesichtserkennungssoftware.
All das verdeutlicht eindrucksvoll, dass künstliche Intelligenz keine neutrale Instanz ist, sondern die subjektiven Vorurteile ihrer Schöpfer widerspiegelt. Und diese Schöpfer sind überwiegend männlich und weiß. Lediglich 12 bis 20 Prozent der IT-Industrie sind weltweit weiblich besetzt. Und darin liegt der Kern des Problems. Denn diese sexistische Verzerrung breitet sich ebenso in der künstlichen Intelligenz aus.
Eine Arte-Doku, die sich mit dem Titel „Die sexistischen Bias der künstlichen Intelligenz“ mit der Problematik auseinandersetzt, zeigt einige beeindruckende Beispiele dafür. Die Google-Übersetzung für „The Doktor“ ergibt zum Beispiel im Deutschen „Der Doktor“. Ein geschlechtsneutrales Wort wird von der Maschine maskulin interpretiert. Und so werden verkrustete Geschlechtsklischees auch in den Algorithmen der künstlichen Intelligenz reproduziert. Eine für alle inklusive KI erfordert daher eine grundlegende Veränderung der Mentalität ihrer menschlichen Entwickler*innen und besonderes verlangt wird eine gewisse Sensibilität.
Die Frage nach den Menschen hinter den Tastaturen ist entscheidend. Derzeit dominieren weiße Männer das Feld der KI-Entwicklung. Doch das war nicht immer so. In den Anfängen der Technologiebranche waren Frauen führend bei der Entwicklung von Programmiersprachen und Software. Doch mit zunehmender wirtschaftlicher Bedeutung der Branche strömten Männer in die IT. Vereinfacht ausgedrückt, sobald es Kohle zu holen gab, rissen Männer alles an sich.
Frauen blieben zurück und wurden immer mehr zur Minderheit. Die Branche könnte heute deutlich anders aussehen, wenn Frauen stärker vertreten wären. In den vergangenen Jahren gibt es dahingehend immer mehr Bemühungen. Durch passende Förderprogramme und ein Umdenken in der Öffentlichkeit.
Künstliche Intelligenz: Lernen aus dem Gender-Data-Gap in der Medizin
Die Medizin ist ein Bereich, in dem künstliche Intelligenz eine herausragende Rolle spielt. Ärzte profitieren von den Fähigkeiten der KIs, um Diagnosen zu stellen und maßgeschneiderte Therapien zu planen. Doch auch hier müssen wir kritisch hinterfragen. Denn die KI-Diagnosen können bei Frauen ungenau sein. Ein altes Problem der Medizin und Medikamentenforschung scheint sich nämlich gerade in der Neuzeit zu wiederholen.
Denn Datenverzerrungen kann dazu führen, dass KI-Modelle oft besser auf Männer abgestimmt sind. Was natürlich schwerwiegende Folgen für Diagnosen und weitere Therapieansätze bei Patientinnen haben kann. Dass die Diskriminierung menschengemacht ist, verdeutlicht sich daran, dass diese Probleme bereits zu Beginn klinischer Medikamentenstudien bestanden haben. Damals hatte man hauptsächlich Männer für die Studien eingeladen. Daraus wurden dann Präparate entwickelt, die besser auf Männer zugeschnitten waren. Was auch an der Mortalitätsrate bei Frauen in westlichen Industriestaaten beobachtet werden konnte.
Ein Umdenken bei den Datenschutzregelungen und klare Leitlinien sind dringend erforderlich, um anhaltende Diskriminierungen durch KIs zu bekämpfen. Eine Lösung könnte sein, KI-Anwendungen genauso streng wie Medikamente zu regulieren und zu zertifizieren. Gerade in sensiblen Bereichen wäre das ein mögliches Vorgehen. Maßnahmen, die die Überwachung der verwendeten Datensätze genau prüfen, wären dabei ein wichtiger Schritt. Denn nur gründliche Prüfung und Überwachung können dazu beitragen, dass künstliche Intelligenz sicherer und inklusiver wird.
Künstliche Intelligenz nicht Neutral
Gleichzeitig steigt in unserer Gesellschaft auch das Bewusstsein für die Verzerrung von Daten und die Notwendigkeit, sie bei der künstlichen Intelligenz zu korrigieren. Es gibt auch zahlreiche kleine Erfolgsgeschichten, in denen die KI eine immense Hilfe ist. Apps können mittlerweile Schmerzpatient*innen dabei helfen, ihre Schmerzen besser zu verstehen und dadurch besser damit umzugehen. Solche Anwendungen können eine Ergänzung zu herkömmlichen Behandlungen sein und durchaus Linderung bringen. Wir müssen aber stets im Hinterkopf behalten, dass die Datensätze die Ergebnisse beeinflussen.
Sieh dir diesen Beitrag auf Instagram an
Der Weg zur inklusiven KI erfordert also neben einer Bereitschaft der Industrie umzudenken auch politische Unterstützung und ethisches, verantwortungsbewusstes Handeln. Fördermittel sollten gezielt in Bereiche investiert werden, die auch Genderfragen berücksichtigen und diskriminierungsfrei sind. Das Forschungsfeld der KI-Ethik muss breiter aufgestellt werden, um eine vielfältige Debatte zu ermöglichen. Nutzende der KI, politische Entscheidungsträger*innen und verschiedene Branchen sollten in diese Diskussion miteinbezogen werden.
In einer Zeit, in der soziale Netzwerke und KI-Programme Ideologien in sich tragen, müssen wir uns bewusst machen, dass sie nicht neutral sind. Wir sind diejenigen, die ihre Entwicklung und Anwendung formen. Künstliche Intelligenz kann unser Leben erleichtern, birgt jedoch auch Risiken mit sich. Daher liegt es an uns allen, die Macht der KIs in die richtigen Bahnen zu lenken und sicherzustellen, dass sie für alle Menschen, gerecht und hilfreich sind. Sonst könnten einige Auswirkungen der Missstände, die wir jetzt noch nicht überblicken können, uns in näherer Zukunft schneller einholen, als uns lieb ist.
Titelbild © ThisIsEngineering via Pexels
DAS KÖNNTE SIE AUCH INTERESSIEREN
Georges Batailles letzten »obszönen« Werke: Charlotte d’Ingerville und Sainte
Zum ersten Mal auf Deutsch: Georges Batailles letzte und erst posthum veröffentlichten Werke "Charlotte d’Ingerville" und "Sainte".
PSG und der Privatjet-Fail: Boomendes Geschäft für Superreiche
Die luxuriöse Fußballmannschaft Paris Saint Germain (PSG) gönnt sich einen unnötigen Kurzstreckenflug und verhöhnt auf der Pressekonferenz den Klimaschutz. Doch […]
Alkohol während der Schwangerschaft: Verharmlosung, hohe Quoten und Gefahren
Ein Glas Wein am Tag ist doch in Ordnung. Solche und andere Mythen, die den Alkoholkonsum während der Schwangerschaft verharmlosen […]
Victim blaming: Können Frauen Vergewaltigungen verhindern?
Basel, Februar 2020: Eine 33-Jährige wird am Heimweg von zwei Männern vergewaltigt. Einer der Täter legte Berufung ein und erreichte […]
BKA-Chef verhilft "Kurz. Ein Regime" auf Platz 1 der Bestseller-Liste von Amazon
Österreich. Für Sebastian Kurz das Zentrum der Macht. Scheinbar aber mehr das realsatirische Zentrum der Welt. Denn wieder einmal schreibt […]
Mona Chollets erkenntnisreiches Buch: wie das Patriarchat Beziehungen sabotiert
Mona Chollet: Wir müssen die Liebe neu erfinden: Wie das Patriarchat heterosexuelle Beziehungen sabotiert. Eine Pflichtlektüre!