Logo
Aktuell INTERVIEW

Tübinger Informatiker: »ChatGPT ist eine Riesen-Chance«

Tübinger Informatiker Carsten Eickhoff über allwissende Maschinen, falsche Antworten und Currywurst-Gedichte

Bringt Computern das Sprechen bei, damit sie kranke Menschen heilen: Informatik-Professor Carsten Eickhoff von der Universität T
Bringt Computern das Sprechen bei, damit sie kranke Menschen heilen: Informatik-Professor Carsten Eickhoff von der Universität Tübingen. FOTO: BROWNUNIVERSITÄT
Bringt Computern das Sprechen bei, damit sie kranke Menschen heilen: Informatik-Professor Carsten Eickhoff von der Universität Tübingen. FOTO: BROWNUNIVERSITÄT

TÜBINGEN. Er erklärt Einsteins Relativitätstheorie, macht die Steuererklärung und schreibt Liebesgedichte. ChatGPT ist ein Alleswisser. Wären da nur nicht die Halluzinationen. Seit letztem November kann der Chatbot von jedermann gratis getestet werden, jetzt hat US-Hersteller OpenAI ein kostenpflichtiges Upgrade rausgebracht. Ob der Textgenerator die Wirtschaft rettet, Kreativität kann und Currywurst kennt: Das beantwortet der Tübinger Informatik-Professor Carsten Eickhoff im GEA-Interview.

GEA: OpenAI hat ChatGPT für die Öffentlichkeit zugänglich gemacht – und damit für Aufsehen gesorgt. Ist das reiner Hype oder echte Zeitenwende?

Carsten Eickhoff: OpenAI hat ChatGPT publikumswirksam vermarktet. Doch der Chatbot stellt tatsächlich eine Zeitenwende dar. Zwar wird ChatGPT eventuell in einigen Jahren gehen. Bleiben wird aber der Ansatz, das Wissen der Menschheit in große Sprachmodelle aufzunehmen. Diese Modelle werden mit riesigen Mengen frei zugänglicher Texte unter anderem aus dem Internet trainiert. Dadurch besitzen sie Universalwissen und lösen beliebige Aufgaben. Das unterscheidet sie von Expertensystemen, die nur ein einziges Themenfeld beherrschen. 

Außerdem ist GPT von Version zu Version höher skaliert. Das bedeutet, das Modell trainiert mit mehr Daten und arbeitet mit mehr Rechenschritten. Das vergrößert sein Faktenwissen und seine Lernfähigkeit. Es liefert bessere Antworten zu mehr Themen. Für uns Informatiker ist das allerdings eine Herausforderung. Denn das macht die Modelle größer, datenhungriger und rechenintensiver.

Die neueste GPT-Version kann nicht nur – wie der Vorgänger – Texte verarbeiten, sondern auch Bilder. Wozu ist das gut?

Eickhoff: GPT-4 ist multimodal. Das heißt, das Modell bekommt zu einer Sache nicht nur einen Text, sondern auch ein Bild. Zusätzlich denkbar wären etwa ein Video, ein Audio oder eine Simulation. Alle zeigen dieselbe Sache, aber von verschiedenen Seiten und erweitern dadurch das Wissen. Denn beim Text allein fehlen bestimmte Informationen, die wir Menschen aufgrund unserer Lebenserfahrung intuitiv kennen. Ein Beispiel: Einen Apfel versteht keiner, der nur drüber liest. Er muss ihn auch anfassen, daran riechen, reinbeißen. Die Hoffnung ist, dass Multimodalität mehr ist als die Summe der einzelnen Modalitäten und das Modell aus dem Zusammenspiel neue Erkenntnisse gewinnt.

ChatGPT kann die Relativitätstheorie erklären, die Steuererklärung machen und Liebesgedichte schreiben. Wie macht der Chatbot das?

Eickhoff: Das Modell trainiert mit riesigen Datenmengen. Das sind zum Beispiel Wetterberichte, Naturgedichte oder Liebesbriefe aus dem Internet. In den Texten gibt es Lücken, die muss das Modell füllen. Weil es viele Texte gesehen hat, weiß es, welche Worte mit hoher Wahrscheinlichkeit passen. Das Modell lernt also, Muster zu vervollständigen. Auf das Training folgt der Einsatz. Der Nutzer gibt eine Arbeitsanweisung, zum Beispiel: Schreib ein Gedicht. Und ein Thema, zum Beispiel: über Currywurst. Dann schreibt das Modell ein Gedicht über Currywurst auf der Basis aller Texte, die es bis dahin kennen gelernt hat. 

Das Modell erzeugt mehrere Textkandidaten, wählt einen aus und zeigt ihn an. Zu sehen bekommt der Nutzer nur die politisch korrekte Version. Politik, Religion, Ethnie oder Geschlecht kommen am besten nicht zur Sprache. Darin ist ChatGPT mittlerweile sehr gut. Denn die veröffentlichte Version wurde ausgiebig getestet, Nutzer entlockten dem Modell verbotene Aussagen – und OpenAI beseitigte die Schwachstellen.

ChatGPT füllt die Lücke im Text mit dem Wort, das mit der höchsten Wahrscheinlichkeit folgt. Heißt das: Es erschafft nichts Originelles, sondern wiederholt nur Mainstream?

Eickhoff: Es ist mehr als das. Zum einen, weil das Modell verschiedene Textkandidaten produziert. Welcher dieser Texte angezeigt wird, bestimmt ein Stück weit der Zufall. Wenn der Nutzer fünf Mal den Auftrag erteilt, ein Gedicht über Currywurst zu schreiben, dann gibt ChatGPT jedes Mal eine andere Version aus. Damit simuliert das Modell Kreativität. Zum anderen wendet ChatGPT zwar allgemeine Muster an, beim Gedicht etwa Verse, Reime und Metren. Es imitiert aber keine konkreten Vorlagen, zum Beispiel ein anderes Gedicht über Currywurst.

Bei Literatur in Ordnung, bei Sachtexten ein Problem: ChatGPT liefert nicht nur Fakten, sondern auch Fiktionen. Woran liegt das?

Eickhoff: Beim Training hat das Modell Texte gesehen, Muster erkannt und Lücken gefüllt. Der Kontext kann aber auch täuschen. Die meisten sogenannten Halluzinationen kommen dadurch zustande, dass Nutzer das System – gewollt oder ungewollt – in die Irre führen. Wenn ein Nutzer zum Beispiel sagt: »Ein Rotkehlchen ist kein …« Dann hat ChatGPT früher geantwortet: »Vogel«. Jetzt hat OpenAI diese Lücke gestopft.

»Sprachmodelle können wunderbare Folgen haben, wenn sie verantwortungs-voll eingesetzt werden«

 

ChatGPT nimmt dem Menschen Standardaufgaben ab. Schafft das Freiraum für Kreativität oder vernichtet das Jobs?

Eickhoff: ChatGPT oder allgemeiner große Sprachmodelle sind eine tiefgreifende Technologie. Sie können wunderbare oder schreckliche Folgen haben – je nachdem, wie klug und verantwortungsvoll sie eingesetzt werden.     In unserer Gesellschaft gibt es zu viel Arbeit für zu wenig Leute. Darum wird Künstliche Intelligenz in den nächsten Jahren viele langweilige Routineaufgaben übernehmen. Die KI stellt zum Beispiel Anträge, schreibt Bewerbungen oder übersetzt Texte. Der Mensch kontrolliert und verbessert das Ergebnis – aber nur wenn die Aufgabe schwierig ist oder gravierende Konsequenzen hat. Das heißt: Die Maschine arbeitet vor, der Mensch arbeitet nach. Für die jeweilige Aufgabe würde in der Praxis aber nicht das generalistische ChatGPT eingesetzt werden, sondern ein spezialisiertes Modell.     Wenn standardisierte Aufgaben an die Maschine delegiert werden, dann schafft das – gerade in sozialen Berufen – Raum für zwischenmenschliche Kontakte. Der Arzt kann sich mehr um den Patienten kümmern, der Verkäufer um den Kunden.

Entscheidungen von Maschinen haben Konsequenzen für Menschen. Sind große Sprachmodelle wie ChatGPT ausgereift für den Einsatz in der Wirtschaft?

Eickhoff: Große Sprachmodelle sind eine Chance für die Wirtschaft. Denn sie können aus riesigen Datenmengen, die für Menschen nicht zu bewältigen sind, exakt diejenigen Informationen rausziehen, die gerade gebraucht werden.     Bei wenigen Fehlern und überschaubaren Konsequenzen können die Modelle selbstständig arbeiten. Bei vielen Fehlern und weitreichenden Konsequenzen müssen Menschen das Ergebnis kontrollieren. In Zukunft verschiebt die Bewertung sich womöglich: Wenn die Maschine bessere medizinische Diagnosen stellt, muss der Arzt sie unterstützend hinzuziehen. Alles andere wäre fahrlässig.

ZUR PERSON

Carsten Eickhoff ist seit 2022 Professor für Medical Data Science an der Universität Tübingen. Davor studierte und lehrte der Informatiker im Ausland, unter anderem an der ETH Zürich, der Harvard und der Brown Universität. Eickhoff bringt Künstlicher Intelligenz das Verstehen, Schreiben und Sprechen menschlicher Sprache bei. Diese Technik wendet er unter anderem auf Gesundheitsdaten an, um die medizinische Versorgung zu verbessern. (mis)

Beim Einsatz von Künstlicher Intelligenz stellen sich Fragen zu Datenschutz, Urheberschaft und Haftung. Gibt es dafür in Deutschland einen sicheren Rechtsrahmen?

Eickhoff: Für Datenschutz und Urheberschaft gibt es in Deutschland konkrete und ambitionierte Gesetze. Bei Verantwortung, Schuld und Haftung ist aber alles unklar. Überfährt zum Beispiel ein autonomes Auto einen Menschen, wer haftet: der Fahrer, der den Wagen nicht gesteuert hat, der Ingenieur, der den Wagen gebaut hat, oder die Firma, die den Wagen verkauft hat?     Bei großen Sprachmodellen erfolgt die Nutzung zurzeit auf eigenes Risiko. Lästert ein Modell zum Beispiel über Frauen, haftet der Anwender für den Schaden. Das wird sich in den nächsten fünf bis zehn Jahren aber vermutlich ändern. Dann geben die Hersteller Garantien für immer mehr Domänen. Dort werden die Modelle kaum noch Fehler machen. Falls doch, haftet der Hersteller.

Bei Künstlicher Intelligenz sind die USA Deutschland weit voraus. Können wir aufholen?

Eickhoff: In den USA sind viele weltführende Universitäten ansässig und viel Risikokapital unterwegs. Darum passieren dort zurzeit in Sachen KI spannende Dinge. Trotzdem muss Deutschland sich nicht komplett von den USA abhängig machen. Es könnte zum Beispiel ein Sprachmodell wie GPT nachbauen – und zwar ohne den Einfluss einer US-Firma, der vielleicht zu trauen ist, vielleicht aber auch nicht. Der Bauplan ist öffentlich. Ein paar tausend Computer müssten ein paar Monate rechnen. Das würde vielleicht einen zweistelligen Millionenbetrag kosten. Das sind Peanuts im Vergleich zu Projekten wie etwa der Raumfahrt. 

Damit würde Deutschland punktuell gleichziehen. Wollte es die Entwicklung vorantreiben, müsste es ein paar hundert Millionen Euro pro Jahr in verschiedene Schlüsselinitiativen stecken. Das kann man machen, aber man muss es auch wollen.     Beim maschinellen Lernen ist Baden-Württemberg bereits gut aufgestellt mit dem Max-Planck-Institut für Intelligente Systeme, der Universität und dem Exzellenzcluster zu maschinellem Lernen in Tübingen, der Universität Stuttgart, dem Karlsruher Institut für Technologie (KIT) und verschiedenen Start-ups. Das sind erste Ansätze, aber es geht in die richtige Richtung. (GEA)