Go to main content

Generative KI – Die Zukunft lügt in unseren Händen

Published on
Authors
Stefan Ullrich
Reinhard Messerschmidt
Tags
Democracy
Technology

Stefan Ullrich & Reinhard Messerschmidt analysieren die gesellschaftlichen und politischen Risiken von KI – und warum eine Orientierung an Open-Source Modellen für traditionelle Software für gemeinwohlorientierte KI sorgen kann.

»Nicht der Mangel an Freiheit ist heute das dringende Problem, sondern die Abwesenheit von Wahrheit.« (Michel Serres)

Unter dem Titel „Lügende Computer“ stellte Frank Rieger jüngst anschaulich dar, dass wir uns gegenwärtig „in einem kritischen Übergangs-Zeitalter zwischen Computern, auf die man sich halbwegs verlassen kann und den neuen ‚AI‘-Systemen, die driften, halluzinieren, lügen und fabulieren können“ befinden. Auch der verstorbene französische Philosoph Michel Serres betonte bereits in Interviews vor über 20 Jahren, es komme im Zeitalter der vernetzten Gesellschaft auf die Zirkulation der wahren Information an. Die Bits und Bytes aller Computersysteme speichern Information in einem technischen Sinne, ohne auf den Wahrheitsgehalt der Inhalte einzugehen. Die auf 25 Millionen Petabytes geschätzte Menge an Informationen im Internet nimmt ebenso stetig zu, wie deren ökologischer und sozialer Fußabdruck. Sie bildet die Datenbasis für teils beeindruckende Leistungen so genannter generativer KI-Systeme, die gerade auf zahlreichen Feuilleton-Seiten eine Zeitenwende durch „Künstliche Intelligenz“ prophezeien.

Dass es sich auch hier ebenso um eine irreführende Bezeichnung, wie problematische Vermenschlichung eines sozio-technischen Systems handelt, wird in Fachdebatten zwar seit Jahren betont, ist in der Geschäftswelt und Öffentlichkeit aber noch lange nicht angekommen. Wir möchten hier allerdings nicht auf falsche Versprechen der letzten Jahre und Jahrzehnte eingehen, sondern in die gleiche Kerbe schlagen wie Aljoscha Burchardt im hiesigen Zwischenruf vor einigen Wochen:

„Generative KI-Systeme sind keine Wahrheits-Produzenten oder Orakel. Es sind Systeme, die plausible Texte erzeugen in dem Sinne, dass der Text sich so liest, als ob ein Mensch ihn gesagt haben könnte. Ein plausibler Text kann in seinen Aussagen wahr sein oder falsch, die genannten Fakten können stimmen oder auch nicht oder auch nur halb.“

Dies liegt auch daran, dass diese Systeme keine Fakten oder Tatsachen als Eingabe haben, sondern ganz allgemein auf Daten der Vergangenheit aufbauen, um Vorhersagen für die Zukunft zu treffen. In den 1980er Jahren gab es zwar Prototypen von KI-Systemen, die Fakten verarbeiten sollten, aber auch dort wurde nicht inhaltlich geprüft, ob ein eingegebener Fakt auch den Tatsachen entspricht. Diese mühselige Arbeit an Expertensystemen wurde inzwischen aufgegeben, sieht man mal von Wolfram Alpha oder vereinzelten Forschungsvorhaben ab.

Von Papagaien und Bullshit-Generatoren

Die meisten generativen KI-Systeme optimieren nicht nach Wahrheit, sondern Plausibilität. Der erfolgreichste Typ großer Sprachmodelle (LLMs) sind so genannte generative pre-trained transformers (kurz: GPTs), die auf ungeheuren Datenmengen trainiert wurden. Selbst im komprimierten Zustand würden diese Daten nicht in den Arbeitsspeicher eines durchschnittlichen Heimcomputers passen. Sie werden automatisiert und ohne permanente Überwachung durch Menschen nach Mustern durchsucht, um anhand einer vorgegebenen Eingabe eine Vorhersage des nächsten Wortes vornehmen zu können (eigentlich des nächsten tokens, es könnten auch Satzzeichen oder Emojis sein). Da Syntax nun mal nicht gleich Semantik ist, bleibt derartigen KI-Systemen menschliches Sinnverstehen fremd. „Es war einmal ein Ritter, der wollte einen Drachen…“ wäre eine typische Eingabe, die an das System gestellt wird, die als Ausgabe beispielsweise „töten“, „zähmen“ oder „retten“ hat, je nach Datengrundlage. Welches Verb ergänzt wird, hängt von der Erwartung der User ab, die dieses System bedienen, denn diese Systeme sind darauf optimiert, die plausibelste Version zu präsentieren. Plausibel ist es, wenn die Erwartungen erfüllt werden, bzw. die Überraschung nicht allzu groß ist.

Die pointiert als „stochastische Papagaien“ oder gar „Bullshit-Generatoren“ verschrienen LLMs haben also mit Blick auf die Zirkulation wahrer Informationen einen eher zweifelhaften Ruf. Nach anfänglicher Euphorie und der Hoffnung, nun endlich ein Werkzeug zu besitzen, das uns sinnvolle Signale aus dem Rauschen von Big Data herausfiltert, ist inzwischen fraglich, ob am Ende der Informationsverdauungskette mittels KI nicht so viel Rauschen erzeugt werden könnte, dass die zu identifizierenden Signale darin untergehen.

Kann keine Stochastik: Ara ararauna

Dies hat nicht nur Konsequenzen für die Wissenschaft, die auf Wahrheit, Auffindbarkeit und Zugänglichkeit von Informationen angewiesen ist, sondern auch für unser gesellschaftliches Zusammenleben. Die Demokratie ist die schwatzhafteste aller Regierungsformen und bei allen Defiziten bekanntermaßen immer noch die beste, die sich die Menschheit bislang ausgedacht hat. Wir befinden uns seit ein paar Jahrhunderten im Zeitalter der Aufklärung (mit all ihren Ambivalenzen), das als zentrales Mittel der Überwindung einer selbstverschuldeten Unmündigkeit den öffentlichen Vernunftgebrauch vorsieht. Dieser geschieht mit Hilfe von geschriebenen Texten und gesprochenen Reden vor einem Publikum. Unsere Kulturtechniken Rede, Bild, Schrift und Zahl sind Bausteine der Informationsgesellschaft und moderner Massendemokratien.

Daher ist es notwendig, dass alle Mitglieder einer Gesellschaft, in der Lage sind, eben zu reden, schreiben, malen und rechnen – vom kritischen Vernunftgebrauch ganz zu schweigen. Von klein auf lernen wir diese Kulturtechniken durch Nachahmung und Praxis, lesen Texte großer Philosophinnen wie Hannah Arendt, bewundern die satirische Rede von Georg Schramm, sind ehrfürchtig erstarrt vor Gemälden von Boticelli und brüten über den Sinn der Zahl 42 nach. Wenn diese großen Werke aber nun von einer inhärent rückwärts gerichteten und so dem Status Quo verhafteten KI erschaffen wurden, was ahmen wir denn dann nach? Wir reproduzieren nur das, was ein Großteil der Menschen für plausibel hält und zementieren entsprechende Muster und Trends, sofern wir nicht das generative KI-System mit dem Zwang des Programms dazu bringen, zu „halluzinieren“, wie diese Zufallskomponente der Erzeugung genannt wird. Übliche Vorstellungen guter Texte vermischen sich dabei mit der Bewertung als plausibel, es entstehen mediokre Populärkulturerzeugnisse mit je nach Hallzuinationsgrad variablem, aber tendenziell wachsendem Bullshit-Anteil. Immer mehr KI-generierte Erzeugnisse dienen dann als Datengrundlage für zukünftige Ausgaben. Wenn diese allerdings systematisch von minderer Qualität oder schlicht falsch sind, dann werden die Ergebnisse im Laufe der Zeit immer schlechter – „garbage in – garbage out“, aber bedingen zugleich eine zyklisch-permanente Degradierung des Informationsgehalts des Weltwissens.

Technik ist politisch

Zu dieser rein technischen Einschränkung kommt noch eine machtpolitische Dimension hinzu. Durch gesellschaftliche Veränderungen und technologischen Wandel ist letztlich das Ensemble aller menschlichen Beziehungen betroffen, innerhalb dessen wir die Freiheit jeweils neu bestimmen müssten. Michel Serres führt dies in dem oben genannten Interview am Beispiel des Internets aus. Seine damalige Interpretation des Internets als Ort absoluter Freiheit, welcher trotz einer Reihe missbräuchlicher Praktiken letztlich die Freiheit vergrößert habe, ist in Zeiten eines staatlichen wie privatwirtschaftlichen digitalen Panoptikums und der Kolonisation digitaler Lebenswelten durch parasitäre überwachungskapitalistische und datenkolonialistische Geschäftsmodelle bedauernswerterweise kaum mehr zeitgemäß. Die Kolonisation der weitgehend digitalisierten Lebenswelt erfolgt inzwischen nur noch indirekt über das Steuerungsmedium Geld beziehungsweise durch fragwürdige Geschäftsmodelle, sondern vermittelt durch KI-Systeme, welche längst genauso unsichtbar und intransparent im Hintergrund als Infrastruktur wirken.

Hatte einen hohen Bullshitanteil: Baron Münchhausen

Datenwerkzeuge wie KI werden zunehmend zur Infrastruktur gesellschaftlichen Handelns mit dem Risiko entsprechender Lock-In-Effekte und sind somit politisch zu gestalten. Voraussetzung dafür ist ein informierter Dialog zwischen Wissenschaft, Medien, Politik und Zivilgesellschaft. Es ist allerdings unheimlich schwer, diesen Dialog zu führen, es geht einerseits alles viel zu schnell, die Dinge entwickeln sich rasant und außerdem nur noch für Fachleute einigermaßen nachvollziehbar. Selbst innerhalb der Wissenschaften ist es von entsprechend gefragten prominenten Ausnahmen abgesehen gegenwärtig nicht leicht, Philosoph*innen und Informatiker*innen zu gewinnen, um auf einer Ebene mit der Politik und interessierten Öffentlichkeit über die ethischen Herausforderungen zu sprechen. Eine gesteigerte interdisziplinäre Reflexions- und Lesekompetenz für KI ist ebenso nötig wie entsprechende Diskursräume und Verständigung über den Tellerrand des eigenen akademischen oder politischen Feldes hinaus.

Ein Linux-Moment der KI?

Dennoch besteht Anlass zur Hoffnung. Neben der kommenden, eher reaktiven, juristischen Regulierung wird es vor allem davon abhängen, ob und wie sich LLMs und andere KI-Systeme proaktiv (um)gestalten lassen. Populäre Community-Websites wie Hugging Face und dezentrale Open-Source-Ansätze wie RedPajama deuten eine neue Richtung an, die bereits als Linux-Moment von KI bezeichnet wurde und möglicherweise auch für die Monstermodelle von BigTech eine Herausforderung sein könnte. Wir sehen momentan ein (vielleicht letztes) Gelegenheitsfenster für nachhaltige technologische und soziale Innovationen, die von einer entsprechenden Zukunftspolitik unterstützt werden kann und sollte. Freilich können auch Open Source Modelle zur Erzeugung von Desinformation oder für kriminelle Zwecke genutzt werden. Daraus folgt aber nicht, dass proprietäre Ansätze eine bessere Alternative wären, zumal etwa bei Meta/LLaMA gar keine eindeutige Trennschärfe vorliegt und OpenAI wiederum so ziemlich alles ist – außer “open”. So vage die Vision einer gemeinwohlorientierten KI für alle („AI4People“) im Vergleich zum neuesten Hype auch sein mag, steht es aus unserer Sicht außer Frage, dass eine andere KI möglich und nötig ist. Dies nicht zuletzt, da die jetzigen LLMs in großen Teilen von äußerst fragwürdigen Motiven und Denksystemen getrieben sind. Sie sind nämlich sowohl mit Blick auf die individuelle Freiheit, als auch das kollektive Gemeinwohl ebenso problematisch, wie bezüglich der Wahrheit von Informationen und Vertrauenswürdigkeit der diese verarbeitenden sozio-technischen Systeme – was auch immer jeweils darunter verstanden wird.

Tags
Democracy
Technology

Contact

Contact us:

For more information how to publish with FMP, see here.