Zum Hauptinhalt

Gestaltungsohnmacht trifft Black-Box KI

Veröffentlicht am
Autor
Aljoscha Burchardt
Schlagwörter
Inneres
Technologie

Brauchen wir einen digitalen Gesellschaftsvertrag?

Im Folgenden soll es um ein schwieriges Verhältnis gehen. Obwohl wir von digitalen Technologien umgeben sind, beschäftigt sich der Diskurs häufig mit randständigen Fragestellungen und am liebsten, je nach Geschmack, mit Luftschlössern oder Dystopien. Ein geplanter und reflektierter Vollzug des digitalen Wandels ist nicht in Sicht. Warum nehmen wir als Gesellschaft diese Gestaltungsmacht über unsere Zukunft nicht an?

Dass es keine allumfassende Definition von KI gibt, spielt in diesem Zusammenhang keine Rolle. Auch die Frage, ob etwas nur digitalisiert ist oder schon KI, wird zunehmend an Bedeutung verlieren. Beide bedingen sich gegenseitig. Typischer Weise finden wir in echten Systemen ohnehin einen Technologie-Mix. Ich nehme hier immer gerne Navigationssysteme als Beispiel. Diese enthalten neben jeder Menge normaler Software auch KI-Komponenten aus verschiedensten Jahrzehnten: Heuristische Suche nach dem kürzesten Weg (1960er), Sprachdialogsystem (1990er) und datenbasierte Stauprognose (2000er).

Interessanter als die Technologie, sind hier die Effekte auf uns und die Welt. Wenn wir davon ausgehen, dass von den rund 60 Millionen Autos in Deutschland schon heute ein Großteil über ein Navi verfügt oder mithilfe einer Smartphone-App navigiert wird, dann verfügen wir als Gesellschaft potentiell über eine Gestaltungsmacht in Bezug auf den Energieverbrauch, die Auslastung von Innenstädten, Wohngebieten, Umgehungsstraßen, die Einhaltung von Richtgeschwindigkeiten usw. Dabei ist nur überhaupt nicht klar, wer diese Gestaltungsaufgabe eigentlich wahrnehmen könnte: Verkehrsplaner, Städte und Gemeinden, Bürgerinnen, Technologieanbieter? Wahrscheinlich sollten die Genannten und auch noch andere involviert werden. Man könnte sich aber auch auf den Standpunkt stellen, dass man es eben gerade nicht (zentral) steuern möchte, welche Autos welche Strecke empfohlen bekommen, sondern es dem Zufall überlassen. Weil Computer und Zufall so eine Sache sind, könnte man es ja auf die Nutzerin abwenden, die selbstverständlich den Routenvorschlag ihres Navis überprüft, so wie wir auch immer die AGBs lesen, uns über Cookies informieren etc. In Österreich gab es vor ein paar Jahren den Fall, dass das Umfahren von Mautstraßen unterbunden wurde, da die Landstraßen während der Urlaubszeit völlig überbelastet waren. Da war es eigentlich schon zu spät.

Nun kann man im Hinblick auf die hoffentlich bald kommende Mobilitätswende argumentieren, dass der Individualverkehr ohnehin stark abnehmen wird und wir an das Thema Verkehrssteuerung daher eh „ran müssen“. Nehmen wir als zweites, ebenfalls mehr oder weniger willkürliches Beispiel, unsere Versorgung mit Nachrichten und Information. In vielen Branchen, die sich um Medienmonitoring und strategische Kommunikation ranken, wird seit einigen Jahren vermehrt KI eingesetzt, um schneller, aktueller und auch preiswerter zu sein. Selbst, wenn hier nur teilautomatisiert wird und am Ende immer noch der „Human in the loop“ für das Ergebnis geradesteht, wird nach meiner Beobachtung häufig weder vorher genau spezifiziert, was das KI-System eigentlich leisten soll, noch evaluiert, ob das gesamte soziotechnische System am Ende auch die gewünschten Eigenschaften hat. Aber das ist eine eigene Geschichte.

Und wie wird die breite Bevölkerung mit Nachrichten versorgt? In Deutschland gibt es ungefähr genauso viele Smartphones wie Autos. Mein Smartphone empfiehlt mir jeden Tag einen eklektischen Mix aus Nachrichten von bekannteren und unbekannteren Quellen, die mich über Klimawandel, Sportergebnisse, Unfälle und sonstiges Tagesgeschehen informieren. Ich lese die Überschriften und klicke selten auch mal eine Nachricht an. Ob diese Auswahl an irgendeinem Punkt von Menschen kuratiert wurde, ob die Empfehlungen für mich personalisiert sind und wie diese konkrete Liste von Nachrichten entstanden ist, weiß ich nicht. Sicher ist auch irgendwo KI involviert. Ist es nicht seltsam, wie wenig es uns interessiert, warum wir hier genau diesen Ausschnitt der Welt gezeigt bekommen, der uns sicherlich manipuliert, wie jede andere Zusammenstellung von Nachrichten?

Auch, wenn ich nicht unterstellen möchte, dass hier irgendwelche bösen Mächte im Spiel sind und ich ja die Freiheit habe, die Nachrichten zu ignorieren, fände ich es fragwürdig bis übergriffig, wenn mir ein Mensch ohne weitere Erläuterung eine Handvoll Nachrichten präsentieren würde (es sei denn, er ist der Chefredakteur meiner Tageszeitung). Welchem Gremium würde man es zugehstehen, solch eine Auswahl oder auch nur die Auswahlkriterien zu gestalten? Ich muss bei solchen Fragen oft an den Fernsehrat denken, der bei uns erfolgreich den öffentlich-rechtlichen Rundfunk kontrolliert, der sich de facto ja eher an den älteren Teil unserer Bevölkerung richtet. Was ist mit dem Rest? Ich habe mal etwas hochtrabend gefordert, dass wir einen „Digitalen Gesellschaftsvertrag“ brauchen. Was ich damit meine, ist mindestens mal den Diskurs darüber zu führen, wie wir die Gestaltungsmacht, die uns Digitalisierung und KI bieten, annehmen wollen und allgemeiner, mit welcher technologischen Unterstützung wir leben wollen.

An dieser Stelle möchte ich einen harten Schwenk zur KI machen. Meine Diskussion der beiden Beispiele war nämlich etwas suggestiv, indem sie vermuten ließ, man könnte „mal eben“ mit dem richtigen normativen Input die KI-Systeme gesellschaftlich gerade ziehen. Diese Annahme steckt vermutlich auch hinter den immer noch gestellten Forderungen nach einem Algorithmen-TÜV oder der Behauptung, wenn man nur die Entwickler-Teams diverser besetzen würde, würde die Technologie gleich gerechter und besser werden. Auch, wenn diese Maßnahmen an sich gut (gemeint) sind, verschleiern sie doch, vor welchen Herausforderungen wir stehen.

Wenn wir heute von KI reden, dann meinen wir die sogenannte schwache KI, die für jede Aufgabe von uns mit Daten und dem nötigen Wissen versorgt werden muss – im Gegensatz zu einer starken oder auch allgemeinen KI, die auf alle möglichen Probleme angewendet werden könnte, die sich eigene, komplexe Ziele setzten, ein Bewusstsein entwickeln, also letztlich den Menschheits-(Alb)Traum von Frankensteins Sohn umsetzen würde. So lange es keine starke KI gibt (ob es sie geben kann, ist unter Experten umstritten), müssen wir vor allem damit leben, dass KI-Systeme typischer Weise die Aufgaben anders lösen als Menschen es tun würden – zumindest anders, als wir es in unserer Introspektion erleben. Dass Technologie anders arbeitet als ihr natürliches Vorbild, ist an sich ist nicht unbekannt. Turbinen arbeiten anders als flatternde Flügel und auch im Bereich kognitiver Fähigkeiten gibt es beispielsweise Taschenrechner, deren Platinen anders arbeiten als unser Gehirn beim Rechnen. Allerdings gibt es hier immerhin noch eine externalisierte Ebene von abstrakten Rechenregeln, über die ein gemeinsames Verständnis in der Sache möglich ist. Das ist bei heutigen KI-Systemen oft anders.

In den 70er- und 80er-Jahren gab es zum Beispiel eine Generation von regelbasierten Übersetzungssystemen, die die Eingabesätze einer grammatischen Analyse unterzogen haben und dann mit Vokabellisten und sogenannten Transferregeln die ggf. anderen grammatischen Strukturen der Zielsprache erzeugt haben. So wurde durch einen Tausch von Nomen und Adjektiv aus rotes Auto im Französischen voiture rouge. Diese Herangehensweise ähnelte noch der, wie wir in der Schule an Fremdsprachen herangehen. Allerdings haben diese Systeme nie skaliert, da unsere Sprache und Kommunikation sehr flexibel sind und sich nur schwer in formale Regel fassen lassen. Die heutigen, sehr viel performanteren Übersetzungssysteme zur wie DeepL oder Google Translate arbeiten mit Maschinellem Lernen. Sie werden mit (vorher irgendwann von Menschen übersetzten) zwei- oder mehrsprachigen Texten gefüttert und lernen dann vollständig selbst, wie man aus den Eingabesätzen die Ausgabesätze macht. Übersetzung wird somit als rein statistische Symbolmanipulation modelliert und dieser Ansatz funktioniert zumindest in gewissen Grenzen sehr gut.

In meinem Fachgebiet, der Sprachtechnologie, kann man sagen, dass es fast ein Gesetzt ist, dass die Systeme, denen man viel Freiheit bei der Bearbeitung der Aufgabe (und viele geeignete Trainingsdaten) gibt, die beste Qualität liefern. Das sind heute typischer Weise (künstliche) neuronale Netze, die mithilfe von Deep Learning funktionieren und damit erst einmal die oft erwähnte Eigenschaft haben, eine Black Box zu sein – nicht mathematisch, da sind sie sogar recht simpel, aber in ihrer Lösung der Aufgabe, im Beispiel also der Übersetzung von Texten. Wie sie Letzteres anstellen, ob und wie weit sie ein „Verständnis“ von Wörtern, Wortklassen, Dingen, Mengen, Konzepten etc. haben, ist schwer zu sagen. Man kann es sich vielleicht wie bei einem Blindenhund vorstellen, der auf eine rote Ampel richtig reagiert, weil wir ihn so trainiert haben. Wie viel er dabei von der Welt und den Gründen versteht, bleibt uns verborgen, da er (darüber) nicht reden kann. Vergleichbar kann ein Navi wenig über Verkehrsplanung berichten oder ein Nachrichten-Empfehlungssystem über journalistische Kuratierungsprinzipien Auskunft geben. Das Positive ist, dass wir viele Systeme praktisch geschenkt bekommen, da die Daten da sind und wir uns keine weiteren Gedanken machen müssen, welches Wissen wir den Systemen noch mitgeben müssen. Man kann KI-Systeme aber auch so bauen, dass sie transparenter sind und mehr Erklärungen geben. Das ist nur aufwändiger und schränkt meist die Anwendbarkeit und Performanz ein und häufig lohnt es dann nicht mehr.

Schwenk zurück. Wir stehen heute am Anfang einer demografischen Abwärtsspirale, was die Erwerbspersonen in unserem Land betrifft und haben die Gestaltungsmöglichkeit einer Technologie, die uns helfen kann, den Laden am Laufen zu halten, aber ihrerseits idealer Weise innerhalb gewisser Freiheitsgrade arbeitet und der wir daher auf die Finger schauen müssen. Die Technologie kann, wenn wir die Mensch-Maschine-Interaktion gut hinbekommen und die soziotechnischen Systeme gut funktionieren, Abläufe schneller, gerechter und transparenter machen. Sie kann dabei aber nicht unsere normativen Vorstellungen „erraten“, sondern hält sich deskriptiv an das, was in unseren Daten an Mustern steckt, ob wir das (heute noch) gut finden oder nicht.

Und genau an diesem Punkt müssen wir alle zusammenarbeiten. Die normativen Vorstellungen, die Erfahrung über Prozesse, Kunden, politische Rahmenbedingungen usw. kann nicht von Technologieanbietern eingebracht werden, die muss von den Domänenexperten kommen, also in meinen Beispielen von den Verkehrsplanern, Politikberatern, Journalisten – im Diskurs mit Vertretern der Zivilgesellschaft und innerhalb eines politischen Rahmens. Dieser könnte beispielsweise vorgeben, dass Navis und News-Portale ihre Technologie dokumentieren müssen und Schnittstellen bereitstellen müssen, damit deren Funktionsweise von den genannten Akteuren überprüft werden kann oder, dass in den Entwicklungsprozess (Spezifikation, Evaluation, Ausrollen) bestimmte Akteure eingebunden werden müssen und das auch dokumentiert werden muss. Ich bin mir nicht sicher, ob der derzeitig beispielsweise auf EU-Ebene diskutierte, eher horizontale und risikobasierte Ansatz das hergeben wird.

Ebenso muss entschieden werden, wofür im Prozess die Technologie eingesetzt werden soll. Welche Arbeiten sind repetitiv, teuer, zeitaufwändig? Wo werden Kunden, Patienten, Klienten nicht individuell und schnell genug bedient? Welche Arbeiten wollen wir unbedingt beim Menschen halten? Diese und viele weitere Fragen sollten wir jetzt möglichst partizipativ, inklusiv, interdisziplinär und generationsübergreifend beantworten. Wir müssen die Digitalisierung zu unserem Zukunftsprojekt machen und dabei auch Themen wie Nachhaltigkeit und technologische Unabhängigkeit Europas in den Blick nehmen.

Schlagwörter
Inneres
Technologie

Kontakt

Wollen Sie mit uns in Kontakt treten?

Weitere Information zu uns und wie Sie in diesem Magazin veröffentlichen können, finden Sie hier.