„Wir haben schon dieses Bild von KI, dass sie allwissend ist“

Immer mehr Menschen nutzen im Arbeitsalltag KI. Doch: KI-Tools sind nicht neutral. Wie können wir KI diversitätssensibel nutzen? Darum geht es in dem Workshop von Hiser Sedik und ihren Kolleg*innen beim Forum Wissenschaftskommunikation. Im Interview erklärt Sedik, warum KI Stereotype reproduziert und welche Gegenstrategien es gibt.
Von Alena Weil
Frau Sedik, wann haben Sie zum letzten Mal KI genutzt?
Das war gestern. Ich habe einen Einladungstext an ChatGPT geschickt und gefragt, ob er – schau mal, jetzt habe ich schon er gesagt – diesen Entwurf in sprachlicher Hinsicht optimieren würde. Dann wurden mir ein paar Vorschläge angezeigt, die ich zum Teil übernommen habe.
Sie nutzen also in Ihrem Arbeitsalltag auch regelmäßig KI?
Immer wieder, zugegeben. Vor allem dann, wenn ich unter Zeitdruck stehe. Grundsätzlich habe ich schon den Anspruch, selbst an Sachen zu tüfteln. Aber gerade in stressigen Phasen ist KI ganz hilfreich.
Auch in der Wissenschaftskommunikation wird immer mehr auf KI gesetzt. Doch so hilfreich die Tools im Alltag auch sind, sie reproduzieren Ungleichheiten und Diskriminierung. Warum ist das so?
Generell lernen KI-Systeme aus historischen Daten, die gesellschaftliche Vorurteile, Diskriminierung und Rassismus enthalten. Das ist ja nicht mit den KI-Systemen erfunden worden, das ist Jahrhunderte alt. Und diese Dinge werden von der KI reproduziert. Das Problem fängt schon bei den Teams an, die Trainingsdaten generieren. Wenn diese Teams nicht divers sind und die Teammitglieder bestimmte Vorurteile verinnerlicht haben, dann werden diese auch im KI-System reproduziert.
„Menschen werden unsichtbar gemacht, Rassismen und Vorurteile werden reproduziert“
Was sind die Folgen? Können Sie da einige Beispiele nennen?
Bei Amazon war es etwa 2018 im Einstellungsprozess so, dass das KI-System Frauen aussortiert hat. Der Grund: Es ging um technische Berufe, die in der Vergangenheit männlich dominiert waren. Und die KI war mit historischen Daten trainiert. Es gibt etliche weitere Beispiele: Gesichtserkennungssysteme, die Schwarze Menschen viel weniger oder gar nicht erkennen im Vergleich zu weißen Menschen. Oder Sprachsysteme, die andere Dialekte nicht berücksichtigen und unsichtbar machen. Oder auch der Data Gap in der medizinischen Forschung, wo es dann beispielsweise bei der Brustkrebserkennung so ist, dass Männer davon stärker profitieren als Frauen, obwohl Brustkrebs ja viel häufiger Frauen betrifft.
Wenn wir uns die Wissenschaftskommunikation anschauen, gibt es zum Beispiel den Matilda Effekt. Er beschreibt, dass weibliche wissenschaftliche Leistungen systematisch unsichtbar gemacht werden. Namen wie Ada Lovelace, Karen Spärck Jones, Fei-Fei Li, die heute als Patin von KI gilt – das sind alles Namen, die wir kaum kennen. Wir können sagen: Wir kennen sehr viele Namen von männlichen Informatikern, aber kaum welche von Frauen oder Personen nicht-binärer Geschlechter.
Was bedeutet das für die Betroffenen, und was bedeutet es auch für unsere Gesellschaft?
Menschen werden unsichtbar gemacht, Rassismen und Vorurteile werden reproduziert. Das führt zu einer sehr eingeschränkten oder gar nicht vorhandenen Teilhabe von Menschen, die ohnehin schon unterrepräsentiert und diskriminiert sind. Das betrifft Menschen mit Behinderungen. Das betrifft Schwarze Menschen. Das betrifft alleinerziehende Mütter. Das betrifft immer all diejenigen, die ohnehin schon weniger Privilegien besitzen als die Dominanzgesellschaft.
Sind wir Nutzer*innen uns dieser Probleme bewusst?
Es gibt zwar Studien, die zeigen, dass es viele Bedenken bezüglich Datenschutz und Fehlverhalten gibt. Jedoch ist das Wissen über konkrete Bias-Mechanismen in den Algorithmen eher gering. Und wir haben häufig überhöhte Erwartungen. Das heißt, Nutzer*innen überschätzen häufig die Genauigkeit, Fairness und Transparenz von KI-Systemen, etwa von Sprachmodellen oder Bildgeneratoren. Ich glaube, wir haben schon dieses Bild von KI, dass sie allwissend ist.
Für dieses Problem soll Ihr Workshop beim Forum Wissenschaftskommunikation sensibilisieren. Was erwartet die Teilnehmenden?
In der Session sprechen wir darüber, wie Bias in der KI entsteht. Und was zum Beispiel Unconscious-Bias-Prozesse sind und wie sie wirken. Ich glaube, wir müssen erst einmal verstehen, woher unsere Wahrnehmungsverzerrungen überhaupt kommen. Das sind ganz menschliche, psychologische Prozesse, die da ablaufen, und wir lernen nicht, sie zu hinterfragen. Das führt zu Privilegien bei den einen und zu Benachteiligung bei den anderen.
Wir haben für den Workshop ganz viele Übungen dabei, in denen wir unsere Privilegien reflektieren. Das sind Übungen, die sich bei uns in den Trainings am Exzellenzcluster SimTech, welches am Stuttgarter Zentrum für Simulationswissenschaft (SC SimTech) angedockt ist, bewährt haben und den Teilnehmenden in der Regel viel Spaß machen. Wir werden über Beispiele sprechen, wie wir diversitätssensibel prompten können. Das heißt, wir erarbeiten Strategien und Vorschläge für die Teilnehmenden, wie sie zu einer inklusiven Sprache und Bildsprache kommen.
Ist der Workshop eher für Leute geeignet, die schon viel mit KI arbeiten, oder kann man auch ohne Vorwissen mitmachen?
Wir versuchen, das möglichst niedrigschwellig zu halten, sodass Menschen mit geringem Vorwissen auf jeden Fall auch teilnehmen können. Im Endeffekt ist der Workshop für alle offen und ich glaube jeder Mensch, der sich da reinsetzt, kann für seinen eigenen Alltag etwas mitnehmen. Die meisten haben irgendwo Berührungspunkte mit KI und die Unconscious-Bias-Phänomene betreffen beispielsweise wirklich alle Menschen.
„Wenn wir KI-Tools nutzen, sollten wir uns immer die Frage stellen: Wer profitiert eigentlich von diesen Tools?“
Im Workshop soll es also darum gehen, wie man es besser machen kann und worauf man bei der Nutzung von KI achten sollte. Können Sie dazu vielleicht jetzt schon mal vorab ein, zwei Tipps geben?
Wenn wir KI-Tools nutzen, sollten wir uns immer die Frage stellen: Wer profitiert eigentlich von diesen Tools? Wer wurde ausgeschlossen? Wer wurde gefragt?
Und natürlich brauchen wir in der Entwicklung und im Umgang mit KI diverse Teams, um unterschiedliche Perspektiven zu haben. Da fängt es schon bei der diversitätssensiblen Rekrutierung an.
Viele denken vielleicht, Diversität sei ein „Nice to have“, oder gehöre ohnehin nur den Diversity-Referent*innen. Aber das ist nicht so – das Thema betrifft alle Menschen. Von mehr Teilhabe und mehr Chancengerechtigkeit profitiert die Gesamtgesellschaft.
Wir haben jetzt nur über die Probleme und Risiken der KI-Nutzung gesprochen. Aber inwiefern könnten KI-Tools uns auch dabei helfen, Diversität und Inklusion zu fördern?
Da gibt es viele Beispiele: KI-Systeme, die smarte Brillen oder Sprachassistenten ermöglichen. Oder Systeme, die automatisch Untertitel erzeugen und Texte vorlesen.
Ein positives Beispiel ist auch der Gender Decoder der Technischen Universität München. Mithilfe dieses Tools werden Ausschreibungstexte auf agentische (stereotyp männliche) Begriffe geprüft, die dazu führen, dass sich mehr Männer bewerben als Personen anderer Geschlechter. Das benutze ich auch im Alltag.
Ein anderes Projekt heißt MissJourney – angelegt an den KI-Bildgenerator MidJourney, der bekanntermaßen immer wieder sexistische Bilder erzeugt. Bei MissJourney werden beispielsweise, wenn es darum geht, eine erfolgreiche Führungskraft zu zeigen, auch Frauen und diverse Personen dargestellt.
Reichen diese Initiativen von Einzelpersonen und Institutionen oder braucht es auch mehr Maßnahmen von staatlicher Seite?
Die braucht es auf jeden Fall. Wenn ich mir beispielsweise die politische Entwicklung in den USA anschaue und wir bedenken, wie viel Geld in KI-Systeme aus den USA investiert wird und welche Personen dahinter stecken, dann mache ich mir schon Sorgen. Da braucht es auf jeden Fall mehr Regulierung.
Mit dem AI Act hat die Europäische Union im vergangenen Jahr eine strategische Leitlinie für den zukunftssicheren KI-Einsatz verabschiedet. Wie viel das letztlich bringt und inwieweit der AI Act die Unternehmen verpflichtet, diversitätssensible oder faire KI einzusetzen, da bleibe ich kritisch.
Deswegen sind solche Ansätze, die wir im kleineren Kreis machen – wie etwa unsere Workshops – so wichtig. Man kann sagen: Das, was in unserer Macht steht, das machen wir. Wir machen im Rahmen unseres „Pride in STEM“-Aktionsplans beispielsweise sogenannte „Safe Zone Trainings“. Das sind Trainings, bei denen es darum geht, queere Menschen sichtbarer zu machen und Allyship zu stärken. Diese Trainings haben ganz klein angefangen in unserem Managementteam, inzwischen haben sie aber eine universitätsweite Reichweite gewonnen. Das zeigt: Auch kleine Maßnahmen können letztlich große Wirkung erzielen.
„Im Kleinen anfangen, aber groß denken“, würde ich sagen.
Forum Wissenschaftskommunikation, Mittwoch, 3. Dezember, 16.15–17.45 Uhr
Session: Divers kommunizieren – ein kurzes Training
Referent*innen:
Hiser Sedik, Universität Stuttgart, Exzellenzcluster SimTech
Dr. Patrick Barth, Universität Stuttgart, Exzellenzcluster SimTech
Tabea Siegle, Universität Stuttgart, Exzellenzcluster SimTech