Go to main content

ChatGPT, BARD und Co: Was ist der Gag an Generativer KI?

Published on
Author
Aljoscha Burchardt
Tags
Orientierungswissen
Technology

Ein Zwischenruf über das transformative Weckruf-Potential und die Demokratisierung light der KI von Aljoscha Burckhardt

Demokratisierung light

So, wie das Go-spielende Alpha-Go im Jahre 2016 in China einen KI-Boom ausgelöst hat, so hat vielen von uns die Veröffentlichung des großen Sprachmodelles ChatGPT der Firma OpenAI im Herbst 2022 die Augen geöffnet, was diese Technologie (potentiell) alles kann. Während die freudige Nutzung der Technologie durch Schüler und Studentinnen beim Verfassen von Hausarbeiten im akademischen Betrieb bisher gemischte Gefühle ausgelöst hat, nutzen Informatikerinnen schon heute solche Modelle, um effizienter zu programmieren. Die Ergebnisse der Verschiedenen KI-Systeme beim Erzeugen von Bildern, beim Übersetzen oder Schreiben von Texten oder animierten Avataren sind auch für uns Experten erstaunlich. Und dennoch bleibt bei aller Euphorie ein Wermutstropfen: Das Ganze ist nur eine Demokratisierung light. Die Technologieentwicklung liegt fest in den Händen internationaler Hyperscaler, also Unternehmen wie Amazon, Facebook oder OpenAI und wir sind bisher weitgehend Zuschauer, die sich durch (noch) kostenlose oder günstige Zugänge quasi mit Brosamen begnügen müssen.

Der Vollständigkeit halber möchte ich erwähnen, dass es immerhin einige Ansätze in Deutschland gibt, wie zum Beispiel das vom Wirtschaftsministerium geförderte Projekt OpenGPT-X, in dem auch das Heidelberger Startup Aleph Alpha Partner ist oder die vom KI-Bundesverband gestartete Initiative LEAM, in der sich verschiedenen Unternehmen und Forschungseinrichtungen organisiert haben, um Schritte in Richtung digitaler Souveränität zu orchestrieren. Das sind zarte Ansätze. Derzeit macht man in Deutschland, was man besonders gut kann: Man wartet man auf das Digitalbudget, das möglicherweise im Herbst beschlossen wird.

Generative KI-Systeme sind keine Wahrheits-Produzenten oder Orakel.

A propos warten … kürzlich haben einige der berufsmäßigen Warner vor gefährlicher KI wie Nick Bostrom oder Elon Musk ein Entwicklungs-Moratorium als offenen Brief initiiert, der forderte, dass für sechs Monate (!) kein größeres KI-Modell als GPT-4 entwickelt werden sollte. Da das eh nur die Hyperscaler können, ist dieser Brief eher als Marketinginstrument oder Ablenkungsmanöver von den wirklichen Problemen mit KI zu interpretieren. Dennoch haben viele meiner Wissenschaftler-Kolleginnen ihn unterschrieben und das sicher mit guten Gründen. Wissenschaftlich ist mir ein Pausieren und Evaluieren der existierenden Systeme auch erheblich sympathischer als ein Wettbewerb darum, wer das größte Modell baut, allein, weil er es kann.

Was ist der Gag an Generativer KI?

Der Begriff „Generative KI“ ist genauso unscharf wie der Begriff „KI“ selbst. Der wichtigste Punkt scheint mir der Folgende zu sein. Bei nicht-generativen KI-Systemen stammen die bearbeiteten Inhalte (Neudeutsch „Content“) und auch die Ausgaben der KI-Systeme (weitgehend) von Menschen. Eine Suchmaschine findet von Menschen erzeugte Webseiten, eine Emotionserkennung klassifiziert Tweets nach vorgegebenen Kategorien, ein herkömmlicher Chatbot spuckt vorformulierte Textbausteine aus oder liest vielleicht mal was aus Wikipedia vor. Das Ähnlichste zu generativer KI sind wahrscheinlich die gut bekannten Übersetzungssysteme. Deren Output in der Zielsprache ist zwar neu, allerdings sehr stark determiniert durch die Eingabe in der Quellsprache.

Generative KI im Unterschied erzeugt neue Inhalte. Dafür wird sie heute typischerweise mit Anweisungen gepromptet wie: „Male ein Bild von Mona Lisa mit nur einem Ohr im Stile von Andy Warhol“ oder mit wenigen Beispielen (Few-Shot Learning) versorgt, wie in: „Erzeuge eine Liste von interdisziplinären Fachbereichen: 1. Bio-Informatik, 2. Computer-Linguistik, 3.“. Ich vermute, die meisten Leserinnen und Leser haben entweder schon einmal selbst ein generatives KI-System ausprobiert oder darüber gelesen. Falls nicht, wäre jetzt ein guter Zeitpunkt.

Maschinelles Lernen und menschliches Training

Auch wenn KI-Systeme wie ChatGPT bisweilen recht altklug daherreden, dürfen wir nicht vergessen, dass diese Systeme ihre Fähigkeiten von uns erst lernen mussten. Das Basissystem GPT-3 zum Beispiel hat aus Unmengen von Web-Daten ein Grundverständnis über die Sprache(n) erworben, indem ein Lernalgorithmus einem Neuronalen Netz immer wieder Texte präsentiert hat und dabei irgendein Wort maskiert hat, das das Netz dann „erraten“ musste. Das nennt man selbstüberwachtes Lernen. Dabei hat das Netzt seine Parameter optimiert und wurde so zu einer Text-Vorhersage-Maschine, also einem generativen Sprachmodell. Dieses spinnt dann beliebige Textanfänge täuschend echt weiter, egal, ob man ihm einen Gedichtanfang gibt oder den Anfang eines wissenschaftlichen Aufsatzes. Das ist eigentlich das, was wir von den Vorschlägen beim Tippen in Suchmaschinen oder von Messages schon kennen, nur besser.

Damit der ChatGPT-Vorgänger InstructGPT auch auf Anweisungen wie „Schreibe mal eine Absage für diese Einladung!“ reagiert, war dann aber menschliches Feedback nötig, das in ein anderes Lernverfahren eingeflossen ist, nämlich verstärkendes Lernen. Und damit ChatGPT beispielsweise ausgewogen auf problematische Anfragen reagiert, wurde es wiederum von Menschen trainiert, die entsprechenden Output bewertet haben. Die Details sind hier nicht so wichtig, es sollte nur klar sein, dass KI-Systeme ihre Aufgaben von uns lernen müssen. Wenn ich möchte, dass ein System Reparaturanfragen beantwortet, dann muss es mit den Teilebezeichnungen und technischen Zusammenhängen klarkommen, wenn es Garantianträge bearbeiten soll, dann muss es bestimmte Regularien anwenden könnten. Neben den datenbasierten maschinellen Lernverfahren kommen in der Praxis dabei auch wissens- und regelbasierte KI-Ansätze zum Einsatz, die mit dem Expertenwissen aus der Fachabteilung gefüttert werden müssen.

Die Systeme können, müssen aber nicht, eine Verbindung zum Web haben, um auf aktuellen Fakten trainieren zu können. ChatGPT-3 ist beispielsweise auf dem Informations-Stand von 2021 eingefroren.

Wie ist der Output von (textbasierter) Generativer KI einzuordnen?

Generative KI-Systeme sind keine Wahrheits-Produzenten oder Orakel. Es sind Systeme, die plausible Texte erzeugen in dem Sinne, dass der Text sich so liest, als ob ein Mensch ihn gesagt haben könnte. Ein plausibler Text kann in seinen Aussagen wahr sein oder falsch, die genannten Fakten können stimmen oder auch nicht oder auch nur halb. Aus diesem Grunde finde ich es falsch, wenn Leute sagen: „Hier hat ChatGPT einen Fehler gemacht“, denn das impliziert, dass das System zum Ziel hatte, diesen Fehler nicht zu machen, bzw. eine Möglichkeit hatte, ihn nicht zu machen. Häufig hört man auch die Forderung, dass die Systeme doch ihre Aussagen nachträglich verifizieren könnten. Das ist bei Basisfakten wie Jahreszahlen sicher machbar, wenn auch mit Rechen-Mehraufwand verbunden. Aber etwa ein Essay zur Frage, ob der Kapitalismus sich bewährt hat, wird ein System schwer mal eben verifizieren können. Selbst bei stärker syntaktischen Textsorten wie Programmiercode oder Kochrezepten sollte man in jedem Fall genau die Ergebnisse der Systeme prüfen, der Teufel steckt auch hier manchmal im Detail. Schließlich würde ich noch empfehlen, davon abzusehen, nach einem kurzen Ausprobieren von ChatGPT, eine Aussage darüber zu machen, was „die KI“ (grundsätzlich) kann oder nie können wird. Das sind alles nur Momentaufnahmen und es ist auch nur eine Art von KI-System.

Jetzt könnte man noch darüber philosophieren, ob durch die Systeme Neues in die Welt kommen kann oder wir Menschen eher eingeengt werden. Man könnte über Verzerrungen und Ungerechtigkeiten reden, die die Systeme aus den Trainingsdaten „lernen“ und uns als Spiegel vorhalten. Man könnte darüber reden, wie man einen Ausgleich zwischen Schutzbedürfnis und Zensur herstellt bei kritischen Themen und vor allem, wer darüber bestimmt. Man könnte über die Entwürfe zum „AI Act“ auf EU-Ebene reden, in denen Generative KI-Systeme (als Vertreter von Allgemeiner KI – AGI) wirklich immer in die höchste Risikoklasse gehören. Man könnte über Urheberrechte und personenbezogene Daten reden beim Training und über die Erfindungshöhe des Outputs. Diese Themen möchte ich aber nicht als Technologe (alleine) bearbeiten und vor allem sollten wir hier auf Erfahrungen und Empirie zurückgreifen. In diesem Sinne: Hauen Sie in die Tasten, wir sprechen uns wieder!

Tags
Orientierungswissen
Technology

Contact

Contact us:

For more information how to publish with FMP, see here.