Bürger-Uni: Warum KI-Sprachmodelle nicht zwingend intelligent sind
Bei der Bürger-Uni in Heilbronn geht Professorin Katharina Zweig der Frage nach, ob Maschinen die besseren Entscheider sind.
Für Informatiker sind Entscheidungen nur Zahlen. Eine Eins für ja, eine Zwei für nein etwa. Also können Computer solche ja einfach berechnen, erst recht mit Künstlicher Intelligenz (KI), die längst ein großes Thema in fast allen Bereichen geworden ist. "Die Frage ist aber, wann können wir mit KI gute Entscheidungen treffen?", meint Professorin Katharina Zweig. Bei der von der Heilbronner Stimme, der TUM und der Dieter-Schwarz-Stiftung organisierten Bürger-Uni-Vorlesung am Mittwochabend auf dem Bildungscampus geht die Sozialinformatikerin von der Universität Kaiserslautern-Landau der Frage auf den Grund: "Sind Maschinen die besseren Entscheider?"
Katharina Zweig kann es nicht gut leiden, wenn immer beinahe mystisch von "der KI" gesprochen wird, als wäre sie ein eigenständiges Wesen. "Ich bekomme regelmäßig die Frage gestellt, ob uns KI irgendwann töten wird", meint sie kopfschüttelnd. Ein Bilderkennungsprogramm? Vermutlich nicht. Ebenso wenig Sprachmodelle. Wobei es bei dem Terminus KI schon fast zu babylonischer Sprachverwirrung kommt, denn damit wird gleichzeitig das Forschungsgebiet, die Menge von Methoden, mit denen Computer "intelligenter" gemacht werden sollen, als auch das Ergebnis selbst, die Software bezeichnet. Wie wäre es also mit einer anderen Definition? Alle Prozesse von Computern, die bei menschlicher Bearbeitung Intelligenz erfordern würden. Passt auch nicht so ganz, denn da gehört ein Taschenrechner definitiv auch dazu.
KI-Vortrag bei Bürger-Uni Heilbronn: Sprache ist komplex
Klassische KI, führt die Professorin aus, wurde schon in den 1980ern entwickelt. Ein Übersetzungsprogramm war damals das Größte, machte aus "auf Wiedersehen" aber trotzdem "on reunion". "Das passiert mit Regeln, wir wissen nicht, welche wir wegnehmen oder dazu packen sollen, damit es funktioniert." Gerade Sprache sei viel zu komplex, um sie mit statischen Regeln zu beschreiben. Heute funktioniert das mit maschinellem Lernen. Die Maschine vergleicht englische und deutsche Texte. Wenn drei Worte hier und da oft zusammen auftauchen, bastelt sich die Maschine daraus eine Regel. "Dann könnten wir ihr doch einfach viel beibringen und die KI entscheidet das?" Darüber habe sie viel nachgedacht.
Zunächst einmal gibt es drei Typen von Entscheidungen. Die faktischen Entscheidungen sind überprüfbare Fakten, etwa Napoleons Geburtstag. Als nächstes wären da Risikovorhersagen, also Fakten, die in der Zukunft überprüfbar sind, wobei es da sowohl selbstzerstörende als auch selbsterfüllende Prophezeiungen gibt. "Wenn Klimaforscher etwas voraussagen, hoffen sie ja, dass dadurch Maßnahmen getroffen werden und sich ihre Prophezeiung nicht erfüllt." Bleibt das Werturteil, die Feststellung und Abwägung verschiedener Qualitäten. Genau dieses interessiert die Expertin am meisten, denn es passiert bereits, dass Wissenschaftler Artikel ihrer Kollegen mit Sprachmodellen beurteilen. Aber ist das sinnvoll?
Philipp Wampfler hat dazu ein Experiment durchgeführt. Er ließ sich von ChatGPT einen Text zum Pro und Contra von Schuluniformen entwerfen. Diesen Text sollte das Programm dann ausformuliert bewerten und drei Verbesserungsvorschläge geben. "ChatGPT gab dem Text 17 von 20 Punkten, ich wäre auch stolz gewesen, wenn den meine Tochter geschrieben hätte", gibt Katharina Zweig zu. Die Verbesserungstipps hatten denn aber gar nichts mit dem ursprünglichen Text zu tun, die angesprochenen Probleme gab es gar nicht. "Kann die Maschine das also beurteilen?" Als Gegenexperiment erklärte sie dem Modell, dass sie dem Geschriebenen nur sieben Punkte geben würde, und forderte einen entsprechenden Bewertungstext. Machte ChatGPT auch. Für denselben Text. "Weil es keine Bewertungen sind."
Warum ist das so? Sprachmodelle können tausende Wörter einlesen, den sogenannten Prompt, und lernen, das nächste Wort vorherzusagen. Dazu nutzen sie Wahrscheinlichkeitstabellen, wählen aber nicht unbedingt das wahrscheinlichste Wort. Eigentlich würfeln sie eher. Bei jedem einzelnen Wort − was auch die hohe Energieleistung erklärt. Angepasst werden kann das durch die sogenannte Temperatur. Bei null nehme die Maschine immer das Wahrscheinlichste, bei der meistgenutzten Eins sei es so ein Zwischending, und bei zwei werde es wild. "Das macht klar, dass Sprachmodelle nicht intelligent sind, bei gewissen Temperaturen gefallen uns ihre Texte halt irgendwie." Heißt auch, Stand heute kann KI keine wertgebundenen Urteile treffen. "Es kann nur so aussehen." Aber wenn man das Ergebnis sowieso überprüfen muss, kann man es auch gleich selbst machen.
Wie sieht es mit den anderen Entscheidungsformen aus? Als Beispiel für Risikoentscheidungen zieht Zweig ein Bilderkennungsmodell heran. Das erkennt tatsächlich lauter Bilder von Pferden. Scheinbar. Denn eigentlich erkennt es nur die immer gleiche Aufschrift links unten, weil alle Bilder aus demselben Archiv stammen. "Für die KI ist das das Pferd."

Bei Bilderkennungsmodellen könne man das noch nachvollziehen, bei Sprachmodellen seien die Abläufe längst viel zu kompliziert. Das Problem: Der Weg zu ihren Lösungen ist nicht überprüfbar. Wann kann ich also mit KI eine gute Entscheidung treffen? Nur solche, bei denen Qualität, Funktionalität und Formen für alle gleich gut sind. Bezieht man Abwägungskosten, Instandsetzung und Regulierung mit ein, kann der Mensch das besser. Ihr Fazit: "Verantwortung für die Entscheidung der Maschinen muss immer noch der Mensch treffen."
KI-Entwicklungen: Es wird neue Jobs geben
Natürlich will Katharina Zweig KI nicht verteufeln, wie sie im Gespräch mit Stimme-Redakteur Tobias Wieland ausführt. Für Assoziatives seien die Modelle zum Beispiel super, ihre Lieblings-KI ist die Gesichtserkennung auf ihrem Handy. Aber um Dinge wie KI-Agenten, die verschiedene, eigentlich miteinander zusammenhänge Aufgaben wie Teile einer Reisebuchung erledigen, müssten alle Eventualitäten in einen Prompt gepackt werden, quasi wie früher programmiert werden. "Das wird sich auch in den nächsten zehn Jahren nicht ändern." Das Problem: Der Mensch müsse seine Weltmodelle und Regeln ständig anpassen, das kann die KI aber nicht, da sei man noch weit weg von.
Wird die KI alle Jobs wegnehmen? "Wir brauchen den Mensch vor der Maschine: Der Mensch beurteilt, was ist einfach, und 08/15, das kann die Maschine machen, wir immer noch den Rest, und das wird immer noch 80 Prozent der Arbeitszeit sein." Es werde neue Jobs geben, aber ihrer Meinung nach lasse sich nicht so viel automatisieren, wie man denkt, betont sie.
Kommentare öffnen

Stimme.de
Kommentare