Wie wir KI wirklich demokratisieren
Die Entwicklung von KI darf nicht den großen Technologiekonzernen überlassen bleiben. Um sie in komplexen und gespaltenen Demokratien nutzen zu können, sind wir auf wache Journalist:innen angewiesen.
Ein Gastbeitrag von Dr. Annette Zimmermann, Assistenzprofessorin für Philosophie an der University of Wisconsin-Madison. Am 14. Juli 2025 war sie zu Gast im Publix.

Die öffentliche Debatte über künstliche Intelligenz ist von Extremen geprägt. Auf der einen Seite stehen Techno-Optimist:innen, die sich fast ausschließlich auf das transformative Potenzial von KI konzentrieren. Auf der anderen Seite warnen Pessimist:innen vor einem drohenden Kontrollverlust oder gar dem Weltuntergang. Beide Perspektiven eignen sich hervorragend für provokante Essays und verkaufsfördernde Schlagworte – doch sie lenken von einem drängenderen, tieferliegenden Problem ab: der Gefahr, dass wir als Bürger:innen schlafwandlerisch die Kontrolle über KI an nichtgewählte, nicht rechenschaftspflichtige Akteur:innen aus der Privatwirtschaft abtreten.
Große Technologiekonzerne behaupten gern – wenig überzeugend –, dass sie automatisch „im Einklang mit demokratischen Werten“ handeln, weil sie in demokratisch verfassten Gesellschaften operieren. Gleichzeitig beanspruchen genau diese Akteur:innen faktisch die Entscheidungshoheit über Richtung und Zweck von KI in unserer Gesellschaft – und viele staatliche Stellen überlassen ihnen dieses Feld, fehlgeleitet vom medialen Hype oder dystopischen Warnungen. Die verbreitete Annahme lautet: Nur diese Unternehmen verfügen über das nötige Know-how, die Ressourcen und die Geschwindigkeit, um im sogenannten „KI-Wettrüsten“ mit autoritären Staaten zu bestehen, also im Namen aller zu handeln.
Doch wer demokratische Legitimität ernst nimmt, sollte sich nicht damit begnügen, sogenannte „sichere“ und „demokratisch ausgerichtete“ KI zu entwickeln – und das sogar ohne den vermeintlich wohlmeinenden Tech-Eliten allzu viele unbequeme Regeln aufzuerlegen. Die eigentliche Frage lautet: Wie lässt sich demokratische Kontrolle über KI ganz praktisch stärken? In komplexen und gespaltenen Demokratien sind es dabei vor allem Journalist:innen und Aktivist:innen, die als entscheidende Katalysatoren wirken können.
Während der Arbeit an meinem demnächst erscheinenden Buch Democratizing AI begegnete mir ein wiederkehrender Einwand: Demokratien seien grundsätzlich schlecht darin, Entscheidungen zu treffen. Sie seien langsam, anfällig für Desinformation und manipulative Einflussnahme. Ihre Wähler:innen agierten mitunter sprunghaft, ignorierten wissenschaftliche Erkenntnisse und seien gerade in polarisierten Gesellschaften wenig verlässlich. Warum also sollte man ausgerechnet solchen Institutionen die Kontrolle über die komplexeste Technologie unserer Zeit anvertrauen?
Zweifellos: Demokratische Verfahren sind unvollkommen. Doch undemokratische Kontrolle durch Konzernführungen und Tech-Eliten ist noch gefährlicher. Die aktuellen Krisen der Demokratie sind real, sie zu ignorieren wäre naiv. Aber sie sprechen nicht gegen demokratische Kontrolle, sondern dafür, sich umso entschiedener für sie einzusetzen.
Demokratische Systeme leben von einer lebendigen Zivilgesellschaft, die offizielle Narrative hinterfragt, übersetzt und zur Diskussion stellt. Wenn Menschen sagen, „die Demokratie versagt“, meinen sie oft das Versagen dieser vermittelnden Ebene: Redaktionen ohne Recherchekapazität, Initiativen ohne Ressourcen, Öffentlichkeiten ohne Zugang zu relevanten Informationen. Die Antwort darauf darf nicht darin bestehen, Demokratie aus Gründen vermeintlicher Effizienz zu umgehen. Vielmehr müssen wir jene Institutionen stärken, die sie funktionsfähig machen. Das heißt auch, die Fähigkeit zivilgesellschaftlicher Akteure zu stärken, KI-Systeme und deren Entwickler kritisch zu hinterfragen und Innovation im Sinne des Gemeinwohls neu zu denken.
Ein zweiter Einwand ist strategischer Natur: Demokratische Kontrolle sei zwar wünschenswert, aber praktisch nicht mehr durchsetzbar. KI-Entwicklung werde längst von wenigen Firmen dominiert. Selbst viele gewählte Entscheidungsträger:innen verstünden die Systeme nicht mehr.
Auch das ist ein nachvollziehbarer Punkt. Doch dieser Fatalismus ist gefährlich, weil er sich selbst bestätigt. Wenn die Öffentlichkeit passiv bleibt, bleibt auch die Macht dort, wo sie ist. Aber wenn Journalist:innen und Aktivist:innen über die Zielkonflikte neuer KI-Werkzeuge aufklären, können sie Bürger:innen befähigen, sich einzumischen – und damit auch verschieben, was politisch überhaupt möglich erscheint. Es geht nicht darum, alle zu KI-Expert:innen zu machen. Es geht darum, mehr Menschen in die Lage zu versetzen, mitzubestimmen, welche Rolle KI in unserer Gesellschaft spielen soll.
Was also ist konkret zu tun? Drei Aufgaben erscheinen zentral.
Erstens: Zivilgesellschaftliche Akteure müssen die wachsende Zahl an Kooperationen zwischen Tech-Unternehmen und öffentlichen Institutionen konsequent durchleuchten. Viele dieser Vereinbarungen – etwa zu Beschaffung oder Datennutzung – erfolgen unter dem Radar der Öffentlichkeit. Beispiel: die Einführung von Palantirs Polizeisoftware in Deutschland. Mehrere Bundesländer nutzen diese Technologie inzwischen, allerdings unter Namen wie „HessenData“ oder „VeRA“, die ihren Ursprung verschleiern. Eine fundierte öffentliche Debatte darüber, ob Bürger:innen tatsächlich ein US-Unternehmen in der Sicherheitsarchitektur sehen wollen, ob Grundrechte betroffen sind oder welche Alternativen bestehen, fehlt bislang weitgehend. Journalist:innen und Aktivist:innen können diese Verträge sichtbar machen, die relevanten Fragen für Laien verständlich einordnen – und Verfahren einfordern, die demokratische Mitsprache ermöglichen, bevor Fakten geschaffen werden.
Zweitens: Die Zivilgesellschaft kann technikpolitische Narrative hinterfragen, die heute viele Entscheidungen prägen. In Europa herrscht die Sorge, im globalen Innovationswettlauf abgehängt zu werden. Diese Angst führt oft zu kurzsichtigen Versuchen, europäische Alternativen zu Google oder OpenAI zu schaffen – so, als gäbe es nur diesen Weg. Dabei ist keineswegs ausgemacht, dass das der verantwortungsvollste oder erfolgversprechendste Ansatz ist. Aktivist:innen sollten die Politik dazu drängen, die zugrunde liegende „Wettrennen“-Logik selbst kritisch zu prüfen – und Alternativen zum bloßen „Aufholen“ zu entwickeln.
Drittens: Journalismus und Aktivismus können die Fragen erweitern, die in der KI-Debatte gestellt werden. Statt sich auf Sicherheit und Wettbewerbsfähigkeit zu beschränken, sollten sie fragen: Wer finanziert die Forschung? Wem gehören die Daten? Wer entscheidet, was als Fortschritt gilt? Es braucht für gute kollektive Entscheidungen nicht nur technische, sondern auch normative, gesellschaftliche Expertise – und Akteur:innen, die in der Lage sind, unternehmerische Entscheidungen als politisch zu entlarven, auch wenn sie technokratisch daherkommen.
KI zu demokratisieren heißt: Der Öffentlichkeit echte Mitgestaltung zu ermöglichen. Nicht erst, wenn Tools bereits im Einsatz sind, sondern viel früher. Die politische Philosophie spricht in diesem Zusammenhang von „demokratischen Intermediären“. Gemeint sind Akteur:innen, die nicht nur das Volk vertreten, sondern es mitkonstituieren, indem sie Bedingungen für informierte, kollektive Urteilsbildung schaffen. Journalist:innen und Aktivist:innen können diese Rolle übernehmen. Sie müssen dabei weder neutral noch technisch versiert sein. Ihre Aufgabe ist es, unbequeme Fragen zu stellen – und verschlossene Entscheidungsprozesse zu durchleuchten.
Mehr demokratische Kontrolle über KI zu fordern, ist kein naiver Idealismus. Es ist notwendig – und möglich. Doch es erfordert zweierlei: die Stärkung der demokratischen Intermediäre und die gleichzeitige Reparatur jener strukturellen Demokratiedefizite, die sich in den vergangenen Jahren verschärft haben. Wenn die KI-Zukunft nicht den Interessen einiger weniger dienen, sondern den Bedürfnissen vieler entsprechen soll, dann müssen wir – Bürger:innen und zivilgesellschaftliche Akteur:innen – gemeinsam die Geschichte dessen erzählen, was als echter Fortschritt gelten darf.
Fotocredit © Marcus Glahn