Go to main content

KI-Aufklärungsspritze: Immunisierung gegen Fake News

Published on
Author
Dorothea Winter
Tags
Democracy
Technology

Als Solomon Asch 1951 sein längst legendäres Konformitätsexperiment durchführt, denkt er an vieles, an eines jedoch sicherlich nicht: Künstliche Intelligenz (KI). Doch welche Auswirkungen hat Aschs Experiment auf die Gefahren durch KI bezüglich unserer demokratischen Systeme, insbesonders die Verbreitung von Fake News?

Konformitätsexperiment nach Asch: Der Zwang der Gruppe

Jede:r von uns kennt Gruppenzwang. Die erste Zigarette in der Teenagerzeit oder das obligatorische Sektglas bei der Vernissage – sie alle verdanken sich dem „Zwang“ auf die Einzelperson, sich dem Verhalten der Gruppenmehrheit anzupassen.

Der Sozialpsychologe Salomon Asch will Anfang der 50er Jahre diesem Phänomen auf den Grund gehen und herausfinden, wie weit jede:r einzelne von uns bereit ist, sich vermeintlichem Gruppenzwang zu unterwerfen. Dafür hat er ein recht simples Experiment entworfen. Einer Gruppe inklusive einer Testperson wird die Aufgabe gegeben, Linien hinsichtlich ihrer Länge zu vergleichen. Die eingeweihten Versuchsteilnehmer:innen einigen sich dabei auf eine falsche Linie und bitten die Testperson um ihre Meinung.

Obwohl sie diesen Fehler erkennen, bestehen lediglich 25 % der Testpersonen auf ihrer – objektiv richtigen – Meinung. 75 % der Testpersonen beugen sich dem vermeintlichen Gruppenzwang und schließen sich der falschen Mehrheitsmeinung an. Aber was hat Aschs Konformitätsexperiment mit KI zu tun? Mehr als wir ahnen.

Kommunikation und KI: Die Macht der Lüge

KI ist nicht mehr wegzudenken aus Medien, Wissenschaft und Gesellschaft, weil sie auch die Art und Weise fundamental verändern, wie wir Menschen miteinander kommunizieren. Dabei gewinnt ein elementarer Bestandteil menschlichen Kommunizierens eminent an Bedeutung: die Lüge. Ist es schwierig, dem Gegenüber „ins Gesicht zu lügen“, so gewinnt die Lüge durch KI an Gewicht. Nunmehr als „Fake News“ bezeichnet, meint sie die Möglichkeit, dem Gegenüber nicht nur Unwahres unterzuschieben – sondern ihn darüber hinaus über die vermeintlichen Gesprächspartner:innen zu täuschen. Wer heute auf einer Social-Media-Plattform auf eine Aussage stößt, kann sich längst nicht mehr sicher sein, dass sie nicht durch einen programmierten Bot, eine KI, generiert worden ist.

Das vermeintliche Schicksal des Mädchens „Lisa“, deren Entführung sich russische Trolle erdacht haben, die auffällige Daunenjacke von Papst Franziskus, die ihm von einem KI-Bildtool angezogen worden ist oder Franziska Giffeys Video-Call mit einem Fake Vitali Klitschko – sie alle geben uns lediglich einen Vorgeschmack auf das, was KI heute und in absehbarer Zukunft vermag.

Dieses Bild ist KI-generiert.

Man könnte jetzt dagegen einwenden, dass der Mensch seit jeher das betreibt, was die Franzosen elegant „corrige la fortune“ bezeichnen: gelogen wurde schon immer. Ob trojanisches Pferd, Romeos Nachtigall oder Honeckers Mauerbau, sie alle geben beredt Zeugnis davon, dass es der Mensch von jeher verstanden hat, Kommunikation im Sinne der eigenen Interessen und im Zweifelsfall an der Wahrheit vorbeizugestalten. Das kann KI heute schneller und besser. Schneller, weil KI Zusammenhänge herzustellen weiß, auf die der Mensch erst kommen muss. Und besser, weil KI die Plausibilität dieser Zusammenhänge aufgrund der ihr zur Verfügung stehenden Informationsmenge signifikant zu erhöhen vermag. „Lügen haben kurze Beine“, sofern sie menschengemacht sind, lügt KI, serviert sie uns also Fake News, fällt es den Menschen erheblich schwerer, den fehlenden Wahrheitsgehalt festzustellen. Das und ihre blitzschnelle globale Verbreitung machen Fake News gefährlich.

Das bedeutet: KI kann Fake News aufbringen und verbreiten. Damit aber nicht genug. KI kann im virtuellen Raum darüber hinaus künstliche Gesprächsteilnehmer:innen kreieren, die die vorgebrachten Fake News bestätigen und verstärken. Damit schafft KI ein in der Kommunikationstheorie Einmaliges im Sender-Empfänger Modells: Dieses Modell wird in den 40er Jahren von Claude E. Shannon und Warren Weaver konzipiert und beschreibt die grundsätzliche Funktionsweise jeder menschlichen Kommunikation. Nach diesem Modell sendet ein menschlicher Sender Informationen aus, die sein menschliches Gegenüber, der Empfänger, aufnimmt und gegebenenfalls mit eigenen Informationen beantwortet. Kommunikation ist nach diesem Modell folglich ein permanentes Zusammenspiel aus Senden und Empfangen. KI wirkt in diesem Modell zugleich als Senderin, also Verbreiterin von Fake News, und Empfängerin dieser Fake News, die sie bestätigt und damit den Konformitätsdruck auf die anderen Empfänger:innen erhöht, diese Fake News zu akzeptieren.

Wenn KI in digitalen Gesprächssituationen realen Menschen gegenübertritt, können die nicht wissen, ob eine geäußerte Meinung von einem anderen Menschen stammt oder KI-generiert ist. Zugleich bleibt der reale Mensch im Ungewissen darüber, ob die Zustimmung oder Ablehnung, die diese geäußerte Meinung erfährt, von realen Personen stammt oder ob sie nicht ebenfalls KI-generiert ist. Wenn also „Lisas“ Geschichte laufend bestätigt, geteilt und kommentiert worden ist, so entspringt die darauf basierende Plausibilität zu einem nicht unerheblichen Teil Aussagen, die Bots gestreut haben. Reale Menschen, die am Schicksal „Lisas“ Anteil genommen haben, sind letztlich an der Nase herumgeführt, ihre Anteilnahme politisch missbraucht worden.

Konformitätsmodell, Kommunikation und KI: Lüge und Mehrheit

Diesem zweiten Aspekt, nämlich, dass KI gleichzeitig Senderin und Empfängerin von Fake News sein kann, wird bislang noch zu wenig Beachtung geschenkt. In Verbindung mit Aschs Konformitätsmodell ergibt sich eine dystopische Gefahr: KI generiert Fake News, lässt sie durch Fake Gesprächspartner:innen bestätigen und teilen und erzeugt so einen Gruppenzwang, diese Fake News zu akzeptieren.

Nun könnte man dagegen einwenden, dass Fake News keine Fake News sind, wenn sie von einer genügend großen Menge an Menschen als „wahr“ angenommen wird. Dieser in der Soziologie verbreitete Ansatz geht auf die erkenntnistheoretische Konsenstheorie der Wahrheit des Philosophen Jürgen Habermas und anderen zurück und besagt im Prinzip, dass die Wahrheit einer Aussage von dem Maß an Zustimmung abhängt, den sie erfährt.

Indem KI sowohl auf Sender-, als auch auf Empfängerseite einwirkt, vermag sie durch die Implementierung virtueller, d.i. gefakter Gesprächspartner:innen, Kommunikationssituationen zu schaffen, in denen reale Menschen unterzugehen drohen. Weil im Wissensstand der KI hoffnungslos unterlegen und dem Zwang der Gruppe folgend, werden diese Menschen Aussagen zustimmen, denen sie im Grunde widersprechen müssten. Die größte Gefahr dabei: Diese Kommunikationsprozesse laufen zu einem Großteil unterbewusst ab. Damit bleibt es extrem schwierig, ihnen kognitiv entgegenzutreten. Soweit die psychologische und soziologische Dimension dieses dualen Fake-News-Problems. Noch gravierender sind jedoch dessen politischen respektive demokratischen Auswirkungen.

KI und Fake News: Totengräber der Demokratie?

Sind die potenziell schädlichen Auswirkungen von KI-generierten Fake-News für die einzelne Person unangenehm und ärgerlich, so können sie in demokratischen Systemen enormen Schaden anrichten. In rasanter Geschwindigkeit können durch Fake News Stimmungen erzeugt und damit politisches Handeln evoziert werden.

Die wehrhafte Demokratie muss sich längst nicht mehr nur mit Panzer und Flugzeugen verteidigen, sondern auch gegen potenzielle Cyberangriffe gewappnet sein. Gerade Demokratien sind qua System durch Fake News gefährdet, weil diese die Meinungsbildung manipulieren können.

Wir brauchen eine verfassungsmäßig legitimierte Informationsüberprüfungsstelle

Welche Schlüsse kann man daraus ziehen? Erstens wird es aufgrund der Möglichkeiten von KI immer schwerer, richtige von falschen Aussagen zu trennen. Zweitens hat KI nunmehr das Potenzial, durch Fake-Gesprächspartner:innen jenen Konformitätsdruck in Gesprächssituationen und dem sozialen Umfeld der Menschen aufzubauen, die die Durchsetzung von Fake News ermöglichen. Drittens sind wir gehalten, die politischen Auswirkungen KI-generierter Fake News im Blick zu behalten

Doch was bleibt zu tun? Auch im Zeitalter von KI bleiben Urteilsvermögen und Informiertheit die stärksten Waffen gegen Lügen und Fake News. Daraus ergibt sich die Notwendigkeit, durch Aufklärung und Bildung die Menschen gegen das Gift der Fake News zu immunisieren. Diese Immunisierung stellt die eine Möglichkeit der Abwehr von Fake News dar – die Möglichkeit, die sich dem Einzelnen eröffnet.

Die andere Möglichkeit wäre die gesamtgesellschaftliche Abwehr verderblicher Fake News. Es wäre eine staatliche, demokratisch gefasste, Institution denkbar, in der Menschen – mithilfe von KI – den Wahrheitsgehalt von im Netz verbreiten Meldungen überprüfen und, was im Rahmen der Rechtsordnung die grobfahrlässige oder bösartige Verbreitung von für die Gesellschaft schädlichen Informationen strafrechtlich verfolgen. Auch wenn sich dadurch nicht jede einzelne Falschmeldung eliminieren ließe, so würde ein Abschreckungspotenzial entstehen und gedankenlose Multiplikatoren solcher Fake News abschrecken. Diese Institution wäre der Lakmustest, ob und in welchem Maße Inhalte mit kritischem Content verbreitet werden dürften. Wenn unsere Gesellschaft es schafft, Pandemien durch biologische Viren einzudämmen und zu bekämpfen, sollte es doch möglich sein in gleicher Weise erfolgreich gegen virtuelle Viren vorzugehen: Analog zum Gesundheits- oder Verteidigungsministerium, brauchen wir auch eine staatliche, verfassungsmäßig legitimierte Informationsüberprüfungsstelle.

Mögen die Möglichkeiten – auch die zum Schlechten – von KI in Zukunft weiter zunehmen, so bleibt ihnen doch eines stets überlegen: aufgeklärtes menschliches Denken.

 

Tags
Democracy
Technology

Contact

Contact us:

For more information how to publish with FMP, see here.