Aktuell

Porträt vom Physiker und Philosoph Eduard Käser vor grauem Hintergrund. Er trägt ein dunkles Hemd.
«Wie können Algorithmen eine politische Wirkmacht ausüben?» fragt Eduard Kaeser in seinem Essay. Bild: © zvg

«Den Algorithmen ist die Demokratie scheissegal»

Der Autor diskutiert in seinem Essay die Beziehung zwischen Algorithmen, Demokratie und Gesellschaft. Seine zentrale These lautet: Algorithmen sind indifferent gegenüber demokratischen Werten, können jedoch aufgrund ihrer Struktur und Nutzung politische und soziale Macht entfalten.

Von Eduard Kaeser

Der Titel meines Beitrages mag Sie etwas nassforsch anmuten. Aber er stellt für mich so etwas wie eine Reverenz vor einem Philosophen dar: dem Amerikaner John Haugeland, den ich für einen der tiefsten Denker über künstliche Intelligenz halte. Er prägte den Satz: Dem Computer ist die Welt scheissegal («they don’t give a damn»). In diesem Sinn also meine ich: Den Algorithmen ist die Demokratie scheissegal. Darüber möchte ich mich im Folgenden etwas auslassen.
Zunächst einmal gilt die Umkehrung: Autokratien sind Algorithmen nicht scheissegal. Sie sehen in der KI-Technologie vielmehr ein Wundermittel zur Festigung ihrer Macht. Es überrascht kaum, dass die Kommunistische Partei Chinas die KI-Forschung als «einen neuen Schwerpunkt des internationalen Wettbewerbs» bezeichnet. Die Vermutung ist naheliegend, dass die Priorität nicht im wissenschaftlichen Erkenntnisfortschritt liegt, sondern im Wettrüsten der Überwachung. Hier hat sich China schon als führend etabliert. Unsummen werden in die KI-Forschung investiert. China exportiert zudem seine Überwachungstechnologien in rund 80 Länder. Vorzugsweise in solche mit schwachen demokratischen Strukturen. Über Tiktok hat das kommunistische Regime auch Zugriff auf Daten von westlichen Nutzern.

Technik und Politik

Ich will mich nicht in China-Bashing ergehen. Mich beschäftigt hier etwas anderes. Und wiederum zitiere ich einen amerikanischen Philosophen, Langdon Winner. Er stellte 1980, also vor dem Siegeszug der digitalen Technologie, in einem Artikel die Frage «Do artifacts have politics?»: «Machen Artefakte Politik?». Sie klang damals höchst seltsam, ja dissonant in der Technikdiskussion, galt doch die Technik nach vorherrschender Meinung als «neutral» - als Mittel zum Zweck. Dass das technische Mittel selbst politisch wirkmächtig sein und das Verhalten des Menschen steuern kann, war ein ziemlich unorthodoxer Gedanke. Denn man argumentierte vorzugsweise «anthropozentrisch»: Der Mensch bestimmt, das Gerät gehorcht. Wie nun aber Winner schrieb:
«In unserer Zeit sind die Menschen oft bereit, ihre Lebensgewohnheiten zu ändern, nur um sich technischen Innovationen anzupassen; indes würden sie ähnliche Änderungen ablehnen, begründete man sie politisch».
Genau dies lässt sich von der neuen digitalen Technologie sagen. Sie setzte sich nicht demokratisch durch, sondern stillschweigend und schleichend als Verhaltensänderung durch Technik. Denken wir nur an die Smartphones. Wir haben unser Verhalten spielend ihrer «Politik» angepasst. Und indem wir das tun, konditioniert uns die Technologie der Sozialen Medien immer mehr.

«Die neue digitale Technologie setzte sich nicht demokratisch durch, sondern stillschweigend und schleichend als Verhaltensänderung durch Technik»

Algorithmen als Akteure

Wie also können Algorithmen eine politische Wirkmacht ausüben? Es geht, wie gesagt, nicht primär um die Frage, was politische Akteure mit Algorithmen anstellen, sondern wie die Maschinen selbst als politische «Akteure» operieren. Ohne sie vermenschlichen zu wollen, gestehen wir ihnen heute eine Eigeninitiative zu, wie wir dies ja bei Menschen ganz selbstverständlich tun. Eine lose Metaphorik spricht schon seit langem von Automaten, die «entscheiden», «planen», «wahrnehmen», «auswählen», «voraussehen». Umgangsformen greifen Platz, in denen Maschinen die Rolle von Partnern, Akteuren, Quasi-Personen, Usurpatoren, womöglich Feinden übernehmen. Die Maschine beginnt zu lernen. Sie entwickelt sich auf eine kognitive Stufe zu, auf der man ihr menschenähnliche Intelligenz zuschreibt - bald einmal vielleicht Bewusstsein, Intentionalität, Sensibilität, ja, Personalität. Und damit beginnt sie sich in unseren gesellschaftlichen Körper zu integrieren. Sie wird zivil. Einigen Robotern hat man bereits Bürgerrechte zugesprochen. Das Tool wird zum Mitbürger. Wir bewegen uns also auf eine Homo-Robo-Gesellschaft zu.

Genauer gesehen, stecken wir schon mittendrin. Am deutlichsten zeigt sich dies in der Debatte um Kontrolle und Transparenz der neuen KI-Systeme. Dass diese Tools immer auch die Signatur ihrer Designer tragen, ist schon seit längerem bekannt. Man spricht vom KI-Bias, den Vorurteilen und Voreingenommenheiten, die sich in den Programmen niederschlagen und zu Fehlurteilen führen können.
Das gilt besonders für die Deep-Learning-Systeme. Ihre Aufgabe ist, Muster in den Trainingsdaten zu erkennen, und Muster sind primär dann erkennbar, wenn sie oft genug in Erscheinung treten. Stereotype sind repetierte Muster. Ohne Ironie lässt sich deshalb sagen: Generative KI generiert vorzugsweise Stereotype, und in diese sind fast definitionsgemäss Vorurteile und Voreingenommenheiten eingegossen. Die einschlägigen Technologiekreise sind sich dieses Problems durchaus bewusst. Und sie suchen nach Tools des Bias-Testens, IBM etwa mit Watson OpenScale, Google mit What-If. Microsoft gibt eine Liste kritischer Algorithmusstudien heraus. Es existiert ein neues spezielles Computerforschungsfeld namens «fairness, accountability and transparency in machine learning (FATML)».

Dass man «Gerechtigkeit», «Verantwortlichkeit», «Transparenz» von Maschinen und ihren Algorithmen einfordert, lässt sich durchaus als ein ethisches Erwachen der Computerwissenschaftler deuten, die sich allmählich der sozialen und politischen Folgen ihrer KI-Systeme bewusst werden. Es existiert eine Vielzahl solcher Probleme. Ihnen entspricht die wichtige Aufgabe, demokratische Institutionen zu schaffen, die solchem Missbrauch entgegentreten. Im Mai 2023 verabschiedete die EU einen regulatorischen Rahmen für den Einsatz von Algorithmen.
Wir brauchen aber mehr, nämlich eine Perspektive, die Szenarien des gesellschaftlichen Computereinsatzes analysiert. Hier gilt es in erster Linie nicht die neuen technischen Applikationen – also die klassifizierenden und die generativen KI-Tools – ins Visier zu nehmen, sondern die generelle Tendenz, soziale und politische Probleme ingenieural zu definieren – was sich letztlich genau als Kernproblem erweist: Kann man fehlerhafte Algorithmen stets mit noch mehr und besseren Algorithmen flicken? Gerechtigkeit, Verantwortlichkeit, Transparenz sind ja nicht primär technische Begriffe, sondern politische, lassen sich also nicht optimieren wie eine Maschinenfunktion. Ein derartiger Technozentrismus nimmt leicht technokratische Züge an. Und in der Technokratie lauert immer die Autokratie.

Opazität der Maschine

Wenn schon von Transparenz die Rede ist - man spricht heute von der Opazität der Maschine, also von ihrer Undurchschaubarkeit. Hier muss man mindestens drei Facetten unterscheiden, die Demokratie-Risiken bergen: die technische, die institutionelle und die individuelle. Neuronale Netzwerke bestehen heute schon aus Milliarden von Parametern, die einen numerischen Input in einen numerischen Output verwandeln. Das heisst, das System entwickelt womöglich Prozeduren, die nur es selbst kennt. Der Designer hat begrenzten – wenn überhaupt - Einblick in das, was sich im Innern abspielt. Mit zunehmender Schichttiefe wird das Netz selbständiger: eine Black Box. Der Technikhistoriker George Dyson hat sogar ein Gesetz formuliert: Ein System, das man vollständig versteht, ist nicht komplex genug, um intelligentes Verhalten zu manifestieren; und ein System, das intelligentes Verhalten manifestiert, ist zu komplex, um vollständig verstanden zu werden.
Die institutionelle Form der Undurchsichtigkeit gefährdet die Demokratie am offensichtlichsten. Viele marktgängige KI-Systeme sind geschützt durch Firmengeheimnis. Wir können zwar die Produkte nutzen, zum Beispiel die GPT-Modelle. Sie funktionieren lokal auf den eigenen Computern. Aber man braucht dazu die Verbindung zu OpenAI. Wenn das Unternehmen beschliesst, ChatGPT nicht mehr zur Verfügung zu stellen, dann haben wir als Nutzer nichts mehr. Diese Monopolisierung zentraler Technologien ein antidemokratischer Vorgang par excellence.
Eine dritte Form der Undurchsichtigkeit liegt in der individuellen Kompetenz der Nutzerinnen und Nutzer. Die meisten von uns sind keine Computer- und Algorithmenfachleute. Wir gebrauchen also ein Tool, das uns immer mehr gebraucht. Wir passen unsere Lebensform ihm an. Was sich bereits auf das Bildungskonzept auswirkt. So wie Sprache und Mathematik sich als kulturelle Grundkompetenzen durchsetzten, wird jetzt die Forderung nach einem gewissen «algorithmischen Alphabetismus» laut, als notwendige Anpassungsleistung an die neuen KI-Umwelten. Die schleichende Anpassung an die Geräte ist kaum aufzuhalten. Das wissen die Technounternehmen.  Man halte sich nur vor Augen, wie X/Twitter den politischen Meinungsaustausch beeinflussen kann. Eine solche Technologie setzt sich in der Regel nicht demokratisch durch, sie «bürgert» sich «ein», ohne dass Bürgerinnen und Bürger ein Wort mitreden können. Wir spielen mit den Artefakten das Spiel bereits, wenn das Plebiszit ansteht, ob wir es spielen wollen. 

Demokratische Risiken

Wenn ich sage, den Algorithmen sei die Demokratie scheissegal, dann gilt das erst recht für die Herren der Algorithmen. Musk sagt schon jetzt, wie der Karren läuft. Die EU hat ein Digitalgesetz ausgetüftelt, um die Plattformkonzerne in die Pflicht zu nehmen. Insbesondere ist die EU-Kommission gewillt, Musk Auflagen zu machen und ihn zu bestrafen, wenn er nicht für mehr Sicherheit bei X sorgt. Das kümmert Musk freilich wenig. Er pöbelt nur über Europa und dessen Regierungen. Er ist der Schutzgott der antidemokratischen Bewegungen. Er weiss: X steht über der Demokratie.
Die Öffentlichkeit verlagert sich zunehmend auf die Online-Plattformen. Und hier herrschen in weiten Teilen Propaganda, Desinformation, Diffamierung, Unterstellung, Lüge vor. Der Wahlkampf in den USA hat das in aller schmutzigen Klarheit gezeigt. Der ganze Unflat in der politischen Debatte ist Algorithmen-getrieben. Das Design von Plattformen wie X, Instagram und Tiktok favorisiert extreme Inhalte, die tendenziell mehr Aufmerksamkeit erregen. Viralität ist heute das Ausschlaggebende Kriterium des politischen Diskurses. Wer Tabus kalkuliert bricht, kann auf die Assistenz von Algorithmen zählen. Überschreitungen der politischen Anstandsgrenzen – sprich: Pöbeleien - gehören zum neuen politischen Stil. Auch in der Schweiz. Perfid daran ist, dass gewählte Politiker auf ihre Immunität setzen können, wenn sie über die Schnur hauen. Der Anreiz, sich dadurch politisch zu profilieren, ist hoch.

Man kann über den Verfall der politischen Sitte lamentieren. Aber wie begegnet man ihm? Mit Strafnormen? Mit Sprachregelung? Wenn neue politische Sitten sich dank neuer Kommunikationstechnologien durchsetzen, soll man dann diese Technologien verbieten? Und wer definiert überhaupt «die» Sitte? Ein oberster demokratischer Sittenwächter?
Die Verwilderung des Diskurses ist offensichtlich. Und daran hat die Symbiose von Big Tech und Öffentlichkeit ihren Anteil. Gerade nach den amerikanischen Wahlen ist die Befreiung der digitalen Medien von den digitalen Monopolisten ein intensiv diskutiertes Problem. Gerade Parteien mit Interesse an Wettbewerb, Marktoffenheit und -vielfalt sollte die Loslösung geäusserter Meinungen aus den Fängen digitaler Monopolplattformen interessieren.

Gesellschaftliche Herausforderungen

Ich komme noch einmal auf die Anfangsfrage zurück: Wie können Artefakte überhaupt als «Akteure» wirken? Meine These lautet: Das «Akteurhafte» der Artefakte ist Symptom dafür, dass wir uns selbst als Akteure immer mehr «herausnehmen»; kognitive Fähigkeiten nicht mehr kultivieren, die unerlässlich für das demokratische Spiel sind. Und dieses Spiel beruht nicht nur auf dem freien und vielgestaltigen Austausch der Meinungen, es braucht eine Schiedsinstanz, die für den Einhalt der Spielordnung sorgt. Und zuallererst braucht es das demokratische Grundmotiv par excellence, das sich im Grunde als erkenntnistheoretisches entpuppt: den Willen zur Wahrheit.
Der spanische Philosoph Ortega y Gasset schrieb in seinem Buch «Der Aufstand der Massen» (1929): «Wer Ideen haben will, muss zuerst die Wahrheit wollen und sich die Spielregeln aneignen, die sie auferlegt. Es geht nicht an, von Ideen oder Meinungen zu reden, wenn man keine Instanz anerkennt, welche über sie zu Gericht sitzt».
Man könnte Demokratie als Gesellschaftsform definieren, die das alltägliche Leben durch solche übergeordneten Instanzen zu regeln sucht; sei dies im Recht, sei dies in den politischen und wirtschaftlichen Beziehungen. Und eben auch im Meinungsaustausch. Man sollte sich bewusst sein, dass die digitalen Medien Meinungsverklumpung fördern, und das bedroht das fragile «Wir» einer freien, offenen, rechtstaatlich geregelten Gesellschaft. In diesem Zusammenhang stiess ich kürzlich auf einen interessanten etymologischen Fingerzeig. Ursprünglich soll nämlich das deutsche Wort «meinen» wenig mit behaupten zu tun gehabt haben. Es ist vielmehr verwandt mit Gemeinschaft, Allgemeinheit, Gemeinsinn. Wer eine Meinung vertritt, signalisiert den Willen, einen Beitrag zu einer gemeinsamen Sache zu leisten. Kurz gesagt, bedeutet dies, Demokratie nicht ständig als selbstverständliche Errungenschaft zu zelebrieren, sondern sie als ein politisches Gut vor Augen zu halten, dass es erst zu entdecken und zu erringen gilt.

Gefahr für die Wahrheit

Die sogenannten intelligenten Tools zersetzen den Willen zur Wahrheit, weil ihnen die Wahrheit scheissegal ist. Der Chatbot generiert eine Sequenz von Wörtern, und er «weiss» nicht, ob diese Sequenz wahr ist, geschweige denn, ob sie überhaupt etwas bedeutet.
Die grösste Feindin der Demokratie lauert so gesehen in der Ambivalenz der neuen Technologien: Sie erweitern unsere kognitiven Vermögen und machen zugleich träge, indem sie uns dazu verführen, unsere eigenen kognitiven Vermögen zu vernachlässigen. Wir beobachten dies ja gerade aktuell an den ChatGPTs. Sie schreiben nicht, sie simulieren Schreiben, generieren eine Sequenz von Wörtern, und sie «wissen» nicht, ob diese Sequenz wahr ist, geschweige denn, ob sie überhaupt etwas bedeutet. Wenn wir also die Frage stellen «Warum noch schreiben lernen, wenn die Maschine dies ebenso gut kann?», dann sind wir der Maschine schon auf den Leim gekrochen. Die Frage drückt eine gefährliche Resigniertheit aus, die an eine berühmte Passage aus Kants Schrift «Was ist Aufklärung?» erinnert: «Es ist so bequem, unmündig zu sein. Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt usw., so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdriessliche Geschäft schon für mich übernehmen.»

Demokratien geraten nicht nur «von aussen», etwa durch Machtwillen, unter Druck, sondern gerade auch «von innen», durch das Nicht-nötig-haben-zu-denken. Ich behaupte nicht, dass «intelligente» Technologie uns dumm mache. Ihr wohnt freilich die Tendenz inne, dass wir uns selbst dumm machen, indem wir meinen, den KI-Systemen das Denken zu überlassen. Sie stecken noch in den Kinderschuhen. Sie werden erwachsener, und sie infiltrieren künftig unseren sozialen Verkehr. Werden sie diesen Verkehr schleichend prägen – bis auch uns Menschen die Wahrheit unserer Sätze scheissegal erscheint?
Technologie entlastet uns von vielem. Sobald wir uns aber vom Denken entlastet wähnen, befinden wir uns auf schiefer antidemokratischer Bahn. Die technisch avanciertesten Gesellschaftsformen sind zugleich die demokratisch prekärsten

«Bestimmte Fähigkeiten zu automatisieren, bedeutet nicht, auf diese Fähigkeiten zu verzichten.»

Die neuen «intelligenten» Geräte bestechen uns, in einem Doppelsinn des Wortes. Sie bestechen uns durch ihre teils übermenschlich anmutenden Fähigkeiten. Und sie bestechen uns mit ihrem verführerischen Versprechen, nahezu alle sozialen und politischen Probleme effizient zu lösen. Heute, im Universum der smarten Dinge, entgehen wir dieser Bestechung kaum noch. Uns aus dem Bannkreis dieser Bestechung zu lösen, wäre ein erster Schritt technologischer Aufklärung.
Der scharfsichtige Philosoph und Publizist Günter Anders prägte den Begriff der Antiquiertheit des Menschen. Zunehmend übernimmt die Maschine menschliche Fähigkeiten. Und sie übertrifft ihn oft. Hüten wir uns nur vor dem Fehlschluss: Bestimmte Fähigkeiten zu automatisieren, bedeutet nicht, auf diese Fähigkeiten zu verzichten. Der Mensch ist ein äusserst erfinderisches Wesen. Er kann also in einer Welt der Technik sich neu erfinden. Ja, er kann auch Demokratie neu konzipieren. Nicht dadurch, dass er ihre Prozesse automatisiert, sondern dadurch, dass er sich zweimal überlegt, ob er sie an Geräte delegieren will. Ja, mehr noch: Wissen wir überhaupt, was wir alles können? Ist das Delegieren an Geräte ein Nullsummenspiel? Verlieren wir notwendig unsere kognitiven Vermögen?

Wir neigen dazu, alle sozialen und politischen Veränderungen dem Einfluss der Technologie zuzuschreiben, und wir vergessen dabei, dass es «die» Technologie nicht gibt. Es gibt Menschen – Ingenieure, Unternehmer, Investoren, KI-Evangelisten -, welche die Technologie zu ganz bestimmten Zwecken einsetzen – und missbrauchen. Und vielen von ihnen liegt durchaus daran, dass die Nutzer ihrer Produkte in der Herdenwärme einer lammfrommen Technikgläubigkeit verharren. Das demokratische Projekt, das hier Kontur gewinnt, wäre ein anthropologisches Projekt im Sinne Kants: technikmündiger Mensch zu werden.


 

ZUM AUTOR

Dr. Eduard Kaeser ist Physiker und promovierter Philosoph.

Zur Veranstaltung

© getty Images

Sämtliche Unterlagen und Aufzeichnungen zu den Veranstaltungen «Menschliche Erkenntnis in der Ära künstlicher Intelligenz» finden Sie unter diesem Link: www.forum.unibe.ch/kuenstlicheintelligenz