Seine Erfahrungen und Einschätzungen hat Kessel gemeinsam mit Kolleginnen und Kollegen auch in Buchform aufbereitet: „ChatGPT und Large Language Models? Frag doch einfach!“ richtet sich an alle, die die Funktionsweise großer Sprachmodelle verstehen wollen – auch ohne Vorwissen. In einem Frage-Antwort-Stil werden die wichtigsten Grundlagen und Risiken Künstlicher Intelligenz erklärt.
Wenn KI Frauen sexualisiert oder ignoriert – Heilbronner Experten üben Kritik
Wie gerecht ist Künstliche Intelligenz (KI) wirklich? Gerade Frauen erleben, wie KI sie oft ignoriert oder sexualisiert. Zwei Experten aus Heilbronn fordern deshalb mehr Diversität und kritisches Bewusstsein.
Künstliche Intelligenz hält zunehmend Einzug in unseren Alltag – ob in der Bildbearbeitung, bei der Jobsuche oder in der Kreditvergabe. Doch die Systeme sind nicht neutral. Sie reproduzieren nicht nur die Daten, mit denen sie gefüttert wurden, sondern auch deren Verzerrungen und Ungleichheiten. Besonders betroffen: Frauen. Lisa Zimmermann vom Gleichstellungsreferat der Hochschule Heilbronn fordert daher mehr Sensibilität im Umgang mit KI.
Heilbronner Expertin warnt: KI blendet Frauenleistungen systematisch aus
„Wir brauchen vor allem mehr kritisches Reflexionsvermögen“, betont Lisa Zimmermann. Studien zeigen laut Zimmermann, „dass viele junge Menschen Sprachmodelle wie Chat-GPT als Suchmaschine verwenden“. Es sei aber nicht selten, dass KI verzerrte oder komplett erfundene Informationen liefert. „Sie halluziniert. Wenn wir bedenken, dass KI immer mehr Lebens- und Arbeitsbereiche beeinflusst, müssen wir dafür sorgen, dass Menschen sie hinterfragen.“

Wie wichtig dieses kritische Hinterfragen ist, zeigt ein Beispiel aus Zimmermanns eigener Erfahrung: „Vor kurzem fragte ich Chat-GPT für einen Vortrag versuchsweise danach, wer die DNA entdeckt habe. Die KI listete mir in drei übergeordneten Stichpunkten sechs Männer auf, darunter auch jene zwei, die den Nobelpreis dafür erhielten.“
Nur in einem kleinen Unterpunkt sei die Forscherin Rosalind Franklin genannt worden. „Hätte ich nicht schon vorher gewusst, dass die zwei Nobelpreisträger Fotomaterial und Aufzeichnungen von Franklin gestohlen hatten und nur dadurch ein Modell der DNA-Struktur bauen konnten, hätte ich sie in einem Vortrag gar nicht erst erwähnt“, so Zimmermann. Dabei gelte dieser Fall als einer der großen Skandale in der Wissenschaftsgeschichte. „Chat-GPT hat aktiv die bahnbrechende Leistung einer Frau unsichtbar gemacht.“
Heilbronner Expertin: „Diskriminierung von Frauen durch KI ist kein Einzelfall“
Diese „vermeintlich kleine Diskriminierung von Frauen durch die KI“ sei kein Einzelfall. Aktuelle Studien – Zimmermann verweist unter anderem auf die von Eva Gengler (FAU Erlangen-Nürnberg) – zur KI-Bildgenerierung zeigten, dass Männer in Macht- und Erfolgskontexten deutlich überrepräsentiert werden.
Frauen hingegen tauchten häufiger in schönheitsbezogenen Kontexten auf – oft mit sexualisierten Elementen. Und: „Ältere Männer werden oft jüngeren Frauen gegenübergestellt, wenn es um die Darstellung von Macht geht“, so Zimmermann.
Spracherkennungssoftware im Auto – Expertin rät zum Selbsttest
Die Diskriminierung beschränkt sich jedoch nicht auf Text oder Bild. Auch bei der Stimmerkennung, bei Bewerbungssystemen oder der Vergabe von Krediten würden Frauen durch KI benachteiligt.
Zimmermann rät zum Selbsttest: „Testen Sie gern einmal, wie gut Ihre eigene Stimme und die Ihres Partners von einer Spracherkennungssoftware im Auto erkannt werden. Es ist sehr wahrscheinlich, dass Frauen mehrere Anläufe brauchen, bis die Anwendung versteht, was Frau von ihr will.“
KI mit veralteten Rollenbildern: Frauen als Hausfrau, Männer in Führungsrollen
Ein Grund dafür liegt laut Zimmermann in der Datenbasis: „Wenn KI mit Daten der Vergangenheit lernt, zementieren wir vermeintlich überwundene Rollenvorstellungen, Klischees und Vorurteile auch in der Zukunft.“ Die Systeme würden Muster übernehmen, die besonders häufig vorkommen – etwa Frauen als Hausfrau oder Mutter, Männer in Führungsrollen.
Diese Muster würden nicht nur übernommen, sondern sogar noch verstärkt. Problematisch sei dabei auch, dass Frauen kaum KI entwickeln und KI auch wesentlich seltener nutzen als Männer. „Genau von den Personen also, denen solche Klischees am ehesten auffallen könnten, kann entsprechend keine kritische Rückmeldung kommen.“
KI und Deepfakes: Viele Frauen von gefälschten pornografischen Inhalten betroffen
Besonders alarmierend sei, dass KI auch gegen Frauen eingesetzt werde. Zimmermann verweist auf den wachsenden Missbrauch durch Deepfakes – also manipulierte oder KI-generierte Videos. Laut einer Studie des Cybersicherheitsunternehmens Home Security Heroes seien Deepfakes überwiegend pornografischer Natur.
Von diesen gefälschten pornografischen Inhalten seien zu 99 Prozent Frauen betroffen. Nicht nur prominente Frauen würden Opfer solcher Angriffe, sondern auch Schülerinnen, etwa in Spanien, den USA oder Thailand.
Wenn KI aus dem Ruder läuft: Lektionen aus dem Fall „Tay“
Auch Thomas Kessel, Wissenschaftlicher Leiter des Studiengangs Wirtschaftsinformatik am DHBW CAS, beschäftigt sich mit der Frage, wie wir mit Künstlicher Intelligenz verantwortungsvoll umgehen können. Diskriminierung durch KI lässt sich nicht immer leicht erkennen. „Das liegt darin, weil man meist nicht weiß, mit welchen Datensätzen gearbeitet wurde.“
Ein besonders drastisches Beispiel dafür, was schieflaufen kann, wenn maschinelles Lernen unkontrolliert bleibt, liefert Microsofts Chatbot „Tay“, auf den Kessel verweist. Der Bot wurde 2016 auf Twitter freigeschaltet und sollte dort durch Gespräche mit Nutzerinnen und Nutzern dazulernen. Doch schon nach wenigen Stunden begann Tay, rassistische und beleidigende Inhalte zu posten – ausgelöst durch gezielte Manipulation durch sogenannte Trolle, die ihn mit extremen Aussagen fütterten. Microsoft zog nach nur 16 Stunden die Reißleine und nahm Tay offline. Der Konzern entschuldigte sich öffentlich. „Der Vorfall gilt bis heute als mahnendes Beispiel für die Risiken unkontrollierten maschinellen Lernens“, so Kessel.
Heilbronner Experte: KI-Entwickler sind meist männlich und weiß
In der Wissenschaft wird in diesem Zusammenhang von Bias gesprochen – also von Verzerrungen, die indirekt über die zugrundeliegenden Daten in KI-Modelle übertragen werden, erklärt Kessel und nennt ein Beispiel: Wenn ein Sprachmodell automatisch den Anwalt mit weißer Hautfarbe oder den CEO mit einem Mann verbinde, liege das daran, dass diese Zuordnungen in den Trainingsdaten überdurchschnittlich oft vorkommen.
„Dieser Bias verfälscht zum Teil erheblich die Ergebnisse, was auch darauf zurückzuführen ist, dass die Entwickler und Datenverantwortlichen hauptsächlich männlich, weiß und in der Altersgruppe 25 bis 45 sind.“
KI „kritisch hinterfragen“ – Intransparenz bei großen Sprachmodellen
Lösungen gibt es – zumindest teilweise. „Diesen Bias versucht man bewusst zu berücksichtigen oder ihm entgegenzuarbeiten bei der Datenauswahl“, so Thomas Kessel. Allerdings bleibt vieles intransparent: „Bei den meisten großen Sprachmodellen wie beispielsweise Chat-GPT oder Mistral ist aber unbekannt oder intransparent, wie beziehungsweise mit welchen Daten sie trainiert wurden.“
Eine zentrale Stellschraube sei für Kessel die Zusammensetzung der Entwicklerteams. Diese müssten diverser aufgestellt werden: auch Menschen mit kulturellem Hintergrund, oder mehr Frauen, anstatt nur Männer.
Zugleich seien die Nutzerinnen und Nutzer gefragt. „Generell ist es wichtig, kritisch zu hinterfragen, was man liest. Auch sollte man bereit sein, sich mit Menschen auszutauschen, die eine andere Meinung haben, als man selbst, sie versuchen, nachzuvollziehen. Und nicht wie Donald Trump alles als Fake News abzustempeln, was nicht den eigenen Wertevorstellungen entspricht“, so Kessel.