Wer die aktuellen Nachrichten verfolgt, kam in den letzten Wochen an einem Thema nicht vorbei: ChatGPT. In jüngster Zeit häufen sich immer mehr negative Schlagzeilen um die einst proklamierte „beeindruckendste technologische Innovation von 2022“. Frank Engelhardt, Chief Transformation Strategist Central Europe bei Salesforce und Wilhelm Petersmann, Geschäftsführer Fujitsu Österreich und Schweiz, haben uns geholfen, die Ereignisse einzuordnen.
ChatGPT ist „das Maß aller Dinge in Sachen Künstlicher Intelligenz“ (3Sat), und „(…) kann alles – außer Bairisch“ (Süddeutsche Zeitung), wird kreativ schaffenden Menschen bald den Job kosten, Google ersetzen und unser Leben völlig verändern. So hieß es bis vor kurzem noch in vielen Medien. Bis vor kurzem. Denn dass ChatGPT auch Schattenseiten hat, deckten nicht zuletzt die Recherchen des Time Magazines auf. Das hat auch die Frage aufgeworfen, wie smart Künstliche Intelligenz tatsächlich ist.
Kurzer Exkurs: Was ist ChatGPT?
Bevor wir den Deep Dive in die ethische Diskussion rund um ChatGPT machen, sollten wir kurz festhalten, worum es sich dabei handelt. Alle, die das schon wissen, können getrost zum nächsten Absatz springen. Alle anderen aufgepasst: ChatGPT ist ein Chatbot, der im Hintergrund mit Künstlicher Intelligenz (KI) arbeitet. Das Besondere: Er kann zu fast jedem erdenklichen Thema Texte generieren. Ob wissenschaftlicher Artikel, Songtext oder Gedichte – du stellst die Fragen, die KI-Software hat (fast immer) die Antwort. Darüber hinaus kann man sich mit dem Bot auf nie dagewesenem Niveau unterhalten, zumal er sich auch an früher geführte Gespräche „erinnern“ kann. Wozu ChatGPT noch in der Lage ist, könnt ihr in diesem Artikel im Detail lesen.
© Shutterstock
Was ist passiert?
Bereits der Vorgänger von ChatGPT, GPT-3, hätte DIE Erfolgsstory werden können – wäre da nicht ein Problem gewesen. Obwohl GPT-3 Sätze auf beeindruckende Weise sinnvoll aneinander reihte, spuckte der Bot immer wieder gewalttätige, rassistische und sexistische Antworten aus. Grund dafür sind die Quellen, mit dem die Künstliche Intelligenz hinter ChatGPT trainiert wurde. Denn diese ist, vereinfacht gesagt, jedes Wort, das derzeit über Google zu finden ist – ganz ohne Filter.
„KI birgt die Gefahr verzerrter Ergebnisse, etwa dann, wenn persönliche Meinungen ungewollt in den Algorithmus einfließen. Vorurteile sind menschlich, und die Maschine kann sich nur so ‚intelligent‘ verhalten, wie es ihr der Mensch beigebracht hat. Oft entstehen Bias-Effekte auch, weil für die Entwicklung der Algorithmen historische Daten herangezogen werden, die bereits Verzerrungen aufweisen, ohne dass es den Verantwortlichen bewusst ist“, erklärt Petersmann.
„Technologie ist nicht gut oder schlecht – sie ist das, was wir aus ihr machen.“ – Frank Engelhardt, Chief Transformation Strategist Central Europe bei Salesforce
ChatGPT und die vorgefertigten Meinungen
Technologie sei aber nicht gut oder schlecht, betont Engelhardt. Sie sei das, was wir aus ihr machen. „Ein Algorithmus wird nicht ‚böse‘ oder ‚gut‘ programmiert. Er selbst ist zunächst neutral – und arbeitet und lernt mit den Daten, die man ihm zur Verfügung stellt“, so Engelhardt. „Ein Algorithmus, der sich auf Daten stützt, die vorgefertigte Meinungen oder Vorurteile abbilden, wird diese immer wieder anwenden und dadurch verstärken. Vorurteile sind der Nährboden von Ungerechtigkeit und Diskriminierung. Aber wir haben es in der Hand, KI zum Wohle aller Menschen zu gestalten. Wir können diskriminierende Datensätze eliminieren und dem Algorithmus diese Vorurteile gar nicht erst beibringen“, führt er weiter aus.
Genau das war es auch, was OpenAI – die Firma, die hinter der KI-Software ChatGPT steckt – tat. Sie beauftragte die kenianische Data-Training-Firma Sama, diskriminierende oder gewaltverherrlichende Datensätze zu eliminieren. Sama erhielt Unmengen von Textfragmenten von OpenAI. Damit sollte das Unternehmen der KI manuell beibringen, welche Inhalte toxisch sind und aussortiert werden müssen.
© Shutterstock
Auslagerung ungeliebter Arbeiten ins Ausland
Auch im Technologie-Bereich ist es nicht unüblich, Arbeiten ins Ausland – vornehmlich in Entwicklungsländer oder Dritte-Welt-Länder – zu verlagern. So existieren im asiatischen oder afrikanischen Raum zahlreiche Data-Training-Firmen wie Sama, die häufig Gelegenheitsjobber beschäftigen. Sie durchforsten große Datensätze, labeln Bilder oder Texte, transkribieren Audiodateien oder markieren Objekte auf Bildern – Aufgaben, die für klassische Developer zu lästig sind. Nicht selten ist das Training von KIs der Zweck. Auch Unternehmen wie Meta profitieren davon: So nutzt Meta Künstliche Intelligenz beispielsweise für die Content-Moderation auf Facebook.
Die Auftraggeber*innen wie Meta oder OpenAI sind Unternehmen, die ihren Sitz überwiegend in westlichen Staaten bzw. dem globalen Norden haben. Für sie bringt diese Auslagerung einige Vorteile. Durch die räumliche Distanz entziehen sie sich rechtlicher Überprüfungen. Gleichzeitig sparen sie Geld, indem sie den Arbeiter*innen im Schnitt zwei Dollar pro Stunde bezahlen. Das ist zwar mehr als das dort sonst übliche Durchschnittsgehalt, reicht aber kaum zum Leben. Und das, obwohl die Arbeiten dieser sogenannten Clickworker maßgeblich dazu beitragen, dass die Auftraggeber ihre KI-Softwares fortschrittlicher vermarkten können, als sie eigentlich sind.
„Schönreden“ durch Impact Sourcing
Die Unternehmen rechtfertigen diese Ausbeutung mit sogenanntem Impact Sourcing. Der Begriff kommt von Outsourcing und meint, dass Bereiche eines Unternehmens in wirtschaftsärmere Länder ausgelagert werden. Auf diesem Weg sollen dort qualitativ hochwertige Arbeitsplätze für Arbeitnehmer*innen aus armen oder gefährdeten Bevölkerungsgruppen entstehen. Kurz: Entwicklungshilfe durch die Schaffung von Arbeitsplätzen.
Petersmann erachtet diese Auslagerung des Trainings als extrem risikoreich: „Für effiziente Ergebnisse und Vorhersagen ist erfolgsentscheidend, wie das verantwortliche Entwicklungsteam die jeweilige KI trainiert und überwacht. Jedes Unternehmen ist in der Pflicht, die genutzten Datensätze – egal wo sie herkommen, ob eigene Daten, gekaufte Daten oder offene Daten aus dem Internet – kritisch zu prüfen – idealerweise in-house.“
Auch bei Salesforce steht man einer Auslagerung des Trainings kritisch gegenüber, wie Engelhardt erklärt: „Unternehmen sollten bevorzugt auf interne Teams von KI-Spezialist*innen und Datenwissenschaftler*innen setzen, um das Training ihrer KI-Systeme durchzuführen. Möglich und förderlich ist auch die Zusammenarbeit mit akademischen Institutionen und Forschungslabors, um Unterstützung durch Forschungsergebnisse und Ressourcen in Bezug auf KI und Datenanalyse zu erhalten.“
Traumatisierende Inhalte
Ein zweites Problem waren die Inhalte, mit denen die Arbeiter*innen beim Training der KI konfrontiert wurden. Denn um gewalttätige und sexuelle Inhalte in den Daten reduzieren zu können, mussten sie diese erst identifizieren. Dazu mussten die Arbeiter*innen Inhalte analysieren, die von sexuellem Kindesmissbrauch über Hinrichtungen, Suizide, Folter, Selbstverletzungen, Inzest bis hin zu Vergewaltigungen reichten.
Dadurch wurden einige der Arbeiterinnen – nicht verwunderlich – nachhaltig traumatisiert und litten teilweise sogar unter posttraumatische Belastungsstörungen und Depressionen. Die Auftraggeber*innen rechtfertigten das als notwendiges Übel, um die Software zu verbessern.
Der Weg in die Zukunft
Sowohl Petersmann als auch Engelhardt sehen die Verantwortung zur ethischen Anwendung von KI nicht nur bei den User*innen, sondern auch bei den Unternehmen, die diese entwickeln und anbieten. „Ein Algorithmus wird grundsätzlich besser und fehlertoleranter, je mehr Daten ihm zur Verfügung stehen. Mangelhafte Datensätze oder ein zu kleiner Umfang an Daten führen zwangsläufig zu fehlerhaften Ergebnissen, weil sie nur einen Teil der Wirklichkeit abbilden. Daher müssen wir das Lernverhalten der KI so offen wie möglich gestalten und Verzerrungs- oder Bias-Effekte durch standardisierte Überprüfungen im Nachgang minimieren“, so Petersmann.
Die Zusammenarbeit mit akademischen Institutionen sei essenziell, um mithilfe von unabhängiger, wissenschaftlicher Forschung zum verantwortungsvollen Umgang mit KI nachhaltige Rahmenbedingungen für die technische Entwicklung zu schaffen, meint auch Petersmann. Bei Fujitsu wird das aktuell schon gemacht: „Wir sind mit der Technischen Universität München (TUM) eine Partnerschaft eingegangen, die darauf abzielt, die Debatten über Transparenz, Verantwortlichkeit und Nachvollziehbarkeit von KI zu fördern,“ erzählt Petersmann. Die Wahl, wie man die KI trainiert, werde letztlich aber immer von den Zielen und Ressourcen des Unternehmens abhängen, so Engelhardt. „Ethische und rechtlich abgestimmte Überlegungen müssen dabei stets im Vordergrund stehen.“
© Shutterstock
Faktor Mensch unerlässlich
Das Eklat rund um ChatGPT hat demonstriert, dass KI ohne menschliches Zutun nicht funktioniert. Das bedeutet aber nicht, dass KI nicht intelligent ist. „KI kann in einer Stunde so viele Daten analysieren, wie wir im Laufe unseres Lebens, was sie bei der Bewältigung der dringendsten Herausforderungen zu einer entscheidenden Technologie macht“, erklärt Petersmann.
Es bedeutet auch nicht, dass die Technologie in Zukunft nicht ohne direkte menschliche Eingriffe funktionieren könnte. Ein Beispiel dafür nennt Engelhardt: „Zum Beispiel hat ein autonomes Auto ja heute schon Fähigkeiten, sicher auf der Straße zu fahren, ohne dass ein Fahrer eingreift. Allerdings sollte es in unserem eigenen Interesse sein, KI niemals völlig unabhängig von menschlicher Überwachung und Interaktion walten und gestalten zu lassen. Menschen sollten stets die Verantwortung für den Betrieb und die Überwachung von KI-Systemen tragen, und sicherstellen können, dass sie sicher und ethisch integer funktionieren und nur im Einklang mit den Werten der Gesellschaft eingesetzt werden.“
„Am Ende des Tages wird KI den Menschen zwar unterstützen, jedoch niemals ganz ersetzen.“ – Wilhelm Petersmann, Geschäftsführer Fujitsu Österreich und Schweiz
Am Ende soll KI menschliches Handeln gar nicht ersetzen. Viel mehr gehe es darum, die Technologie als wertvollen Partner für Menschen zu sehen, meint Engelhardt. „Die intelligente Automatisierung nicht-wertschöpfender Tätigkeiten kann Menschen wichtige Freiräume schaffen, beispielsweise um bessere Entscheidungen treffen oder mehr Zeit in menschliche Beziehungen investieren zu können.“
Titelbild © Shutterstock
DAS KÖNNTE SIE AUCH INTERESSIEREN
Orthorexie: Wenn gesundes Essen zur Sucht wird
Obst ist gesund, Kuchen ist ungesund. Jeder Mensch teilt Lebensmittel in gesund und ungesund ein. Grundsätzlich nichts Ungewöhnliches. Jedoch entwickeln […]
Mona Chollets erkenntnisreiches Buch: wie das Patriarchat Beziehungen sabotiert
Mona Chollet: Wir müssen die Liebe neu erfinden: Wie das Patriarchat heterosexuelle Beziehungen sabotiert. Eine Pflichtlektüre!
Drogendealer im Gespräch: im Untergrund der Schattenwelt
Wir haben einen ehemaligen Drogendealer zum Gespräch getroffen, dabei erzählt er uns über die dunkle und geheime Welt des Drogenhandels!
Werbung in Träumen: Das Potenzial von TDI birgt Gefahren
Der Superbowl ist jedes Jahr für viele Sportfans ein unvergessliches Ereignis. Eine noch größere Bedeutung hat dieses Sportevent für die […]
Reich, aber kein Geld: Twitter-Kauf von Elon Musk zeigt, wie Steuern vermieden werden
Wie absurd unser Finanzsystem zum Teil ist, dürfte wohl jedem klardenkenden Menschen bekannt sein. Trevor Noah hingegen geht in „The […]
Warum Konzerttickets so schweineteuer sind
Warum die Ticketpreise für die Konzerte unserer Lieblingsstars so teuer sind. Die Antwort: Nachfrageorientierte Preisgestaltung und mehr.