Forscher sehen Chancen und Risiken bei ChatGPT
Die Text-KI ChatGPT füllt derzeit die sozialen Netzwerke. Sie spuckt auf Knopfdruck Texte aus, formuliert Gedichte und programmiert Webseiten. KI-Forscher loben die Kreativität des Programms, sehen aber auch Probleme.

ChatGPT mit Fragen zu löchern ist kinderleicht. Fragt man die Künstliche Intelligenz (KI), wie hoch der Eifelturm ist, muss sie nicht lange überlegen. "Der Eiffelturm ist 324 Meter hoch, inklusive seiner Antenne." Nächste Frage: Wann werden die Menschen zum Mars fliegen? "Es gibt derzeit Pläne und Bemühungen verschiedener Regierungen und Privatunternehmen, Menschen zum Mars zu senden", antwortet das Programm. Ziel sei eine Marslandung im Jahr 2030. "Die konkreten Pläne können sich jedoch ändern."
Länger grübeln muss die KI, als sie gefragt wird, ob Menschen von grundauf böse sind. "Nein, Menschen sind nicht von Natur aus böse. Die menschliche Natur ist komplex und vielschichtig und kann sowohl positive als auch negative Verhaltensweisen hervorbringen." Die Erziehung, Erfahrungen, Überzeugungen und das Umfeld hätten darauf einen Einfluss.
Zwischen der Frage, die man in ein Textfeld eintippt, und der Antwort vergehen meist nur wenige Sekunden. Das Programm scheint auf Fragen zu antworten, wie es ein Mensch tun würde und reagiert sogar auf Nachfragen.
ChatGPT macht viele Fehler und will politisch neutral sein
Mit seinen Fähigkeiten haben ChatGPT und die Betreiberfirma OpenAI einen Hype ausgelöst. Weltweit beschäftigen Menschen den Textroboter mit philosophischen Fragen und kniffeligen Aufgaben. Die sozialen Netzwerke quillen über mit Videos, in denen Nutzer die Grenzen der Software austesten: Die KI schreibt in Sekunden Texte zu jedem denkbaren Thema, dichtet und entwirft Liedtexte. Sie sammelt Ideen für Geburtstagspartys und schlägt Ernährungspläne vor. Wer von ChatGPT eine Webseite verlangt, bekommt Zeile für Zeile den Code präsentiert.
Doch die Technik hat Schattenseiten: Häufig macht ChatGPT Fehler, behauptet etwa, Olaf Scholz sei "Bundeskanzler und Finanzminister". Bei politischen Fragen antwortet das Programm: "Als KI-Modell bin ich neutral und habe keine politische Meinung." Oft sind die Antworten sehr allgemein. Wird Russland einen Atomkrieg starten? "Die Möglichkeit eines Atomkriegs ist eine sehr ernste und beunruhigende Angelegenheit, die durch politische Entscheidungen und diplomatische Bemühungen verhindert werden sollte."
KI-Forscherin: Es gibt keine Methoden, Text-KI zu erkennen
Ute Schmid leitet die Arbeitsgruppe Kognitive Systeme an der Universität Bamberg. Sie findet, dass KI transparenter werden muss. Niemand könne nachvollziehen, wie die Aussagen von ChatGPT zustande kommen, selbst die Entwickler nicht. "Es gibt bisher kaum spezielle methodische Arbeiten, wie man das technisch machen kann."
Deshalb sei das Programm auch keine Gefahr für den Journalismus, der Quellen benennt. Anders ist das in der Schule. Inhaltsanalysen und Aufsätze schafft die KI in Minuten. Schmid sieht darin eine Chance, Methoden in der Bildung generell neu zu denken. Lehrkräfte müssten sich fragen, wie sie ChatGPT in ihren Unterricht einbauen und Wissen anders abfragen können als durch Auswendiglernen.
Nutzer neigen dazu, die KI zu vermenschlichen - und ihr Privates anzuvertrauen
Der Umgang der Nutzer mit dem Programm, kann problematisch sein, sagt Thilo Hagendorff, der an der Uni in Tübingen forscht. "Menschen können fast nicht anders, als solche Spachmodelle zu vermenschlichen." Das könne zu einem überhöhten Vertrauen der Nutzer in die Technik führen und dazu, dass sie private Informationen preisgeben.
Bei solch großen Datenmengen sei es nicht mehr möglich, Texte von Rassismus oder Sexismus zu befreien. Deshalb setze OpenAI Menschen ein, um problematische Inhalte zu finden und die KI zu verbessern. Dabei gäbe es dieselben Probleme, wie bei der Moderation von Inhalten in sozialen Netzwerken. "Das ist ein extrem schwieriger Prozess, der mit einem psychologischen Preis für die betroffenen Menschen einhergeht."
In Deutschland fehlt es an Rechenzentren für die KI-Forschung
Jedoch will sich der Experte nicht auf das Negative fokussieren. Sprachmodelle wie ChatGPT könnten vielfältig eingesetzt werden. "Sie bieten uns kreative Lösungen an, sie bereichern uns mit einem unendlichen Wissen." Vom Kundenservice bis zu Robotern gebe es fast keine Grenzen, die Technik einzusetzen.
Wenn Deutschland bei der KI-Entwicklung mithalten soll, müssten Universitäten besser ausgestattet werden, sagt Oliver Brock, Professor und Sprecher des Clusters "Science of Intelligence". Es brauche leistungsfähige Rechenzentren für die Forschung.
Experten erwarten, dass es keinen KI-Winter mehr geben wird
Einig sind sich die Experten, dass ChatGPT nicht mehr verschwinden wird. "Ich glaube nicht, dass es noch mal einen KI-Winter geben wird", sagt Brock und meint damit den Abschwung, der bei neuen Technologien oft folgt.
Viele Firmen werden nachziehen und ihre KI von Nutzern testen lassen, vermutet Hagendorff. Und was meint ChatGPT? "Ich werde mich weiterentwickeln, indem ich ständig mehr Daten aus unterschiedlichen Quellen erlerne und von OpenAI optimiert werde."
Das Unternehmen OpenAI
Hinter ChatGPT steckt das Unternehmen OpenAI, das 2015 von Tesla-Chef Elon Musk und dem Programmierer Sam Altman in San Francisco gegründet wurde. Altman ist heute Geschäftsführer. Zu den wichtigsten Geldgebern von OpenAI gehört Microsoft. Der Softwarekonzern kündigte kürzlich an, ChatGPT in den nächsten Jahren mit Milliarden zu fördern.
ChatGPT in seiner aktuellsten Version speist sich aus großen Datensätzen, darunter von Wikipedia. Zusätzlich wird das System von Menschen trainiert, die Antworten der KI bewerten. In den ersten fünf Tagen registrierten sich mehr als eine Million Menschen, um ChatGPT zu nutzen. OpenAI betreibt außerdem Dall-E, eine KI, die aus Beschreibungen Kunstwerke schafft.