Der größte Irrtum in der Debatte über künstliche Intelligenz (KI) ist die Annahme, es gehe vor allem um Innovation, Produktivität und Wettbewerbsfähigkeit. Das ist auch ein wichtiger Teil und KI bietet riesige Chancen – um dies vorab klar zu sagen. Aber es geht auch, und in erster Linie, um Macht: Wer bestimmt künftig über zentrale Ressourcen moderner Gesellschaften? Darin liegt eine der größten Gefahren für unsere liberale Demokratie.
Nicht die KI selbst bedroht die Demokratie, sondern die politische Ökonomie ihrer Entwicklung – und das Tempo, mit dem sie in Kriegsführung, Verwaltung, Arbeitswelt, Finanzmärkte und Kommunikation eindringt. Wenn sich KI-Ressourcen bei wenigen privaten Akteuren konzentrieren, dann verschiebt sich Macht aus demokratisch kontrollierten Räumen in intransparente Sphären. Wer KI kontrolliert, kontrolliert Märkte, Informationsflüsse und staatliche Handlungsfähigkeit.
Einige Tech-Milliardäre stellen die Demokratie offen infrage und nehmen Einfluss auf die Politik. So sagt etwa Peter Thiel, dessen Ideologie ich in einer früheren Kolumne analysiert habe: »Ich glaube nicht länger, dass Freiheit und Demokratie miteinander vereinbar sind.«
Staatliche Institutionen verlieren an Kontrolle
Regulierung von KI allein wird künftig nicht mehr reichen, weil private Unternehmen staatlichen Behörden technologisch oft weit voraus sind. Das waren neue Technologien zwar fast immer, aber Tempo und Dominanz der KI schaffen ein unüberbrückbares Ungleichgewicht zwischen Staat und privaten KI-Eigentümern. Genau hier liegt das demokratische Risiko: Wenn Parlamente, Gerichte und Aufsichtsbehörden die Systeme, die sie kontrollieren sollen, nicht mehr verstehen, prüfen oder wirksam begrenzen können, kippt das Machtverhältnis zwischen Staat und Wirtschaft.
Wie real diese Gefahr schon heute ist, zeigen mehrere Felder: Im militärischen Bereich gab es 2024 Berichte, die von den USA geprüft wurden, wonach Israel KI zur Identifizierung von Bombenzielen in Gaza eingesetzt hat. Jüngst kommen Berichte über KI-beschleunigte Kriegsplanung im Irankrieg hinzu; zugleich wird nach dem Angriff auf eine Schule in Minab untersucht, wie dort Zielverifikation und Datenprüfung versagt haben.
Die Gefahr ist auch im zivilen Staat sichtbar. Das niederländische SyRI-System zur Aufdeckung von Sozialbetrug wurde gerichtlich gestoppt, weil es Grundrechte verletzte. Und in Großbritannien markierte ein Behördenalgorithmus Hunderttausende Leistungsbeziehende zu Unrecht als verdächtig. Wenn Bürgerinnen und Bürger nicht wissen, wie solche Systeme funktionieren, und wie sie sich wehren können, wird aus rechtsstaatlicher Verwaltung eine Blackbox.
Wachsende Ungleichheit und Machtkonzentration
Die zweite Gefahr ist ein drastischer Anstieg von Ungleichheit. Technologischer Fortschritt schafft nicht automatisch Wohlstand für alle. Er kann Produktivität erhöhen und zugleich Einkommen, Vermögen und Entscheidungsmacht nach oben umverteilen. Die Nobelpreisträger Daron Acemoglu und Simon Johnson zeigen in ihrem Buch , dass neue Technologien den Wohlstand nicht von allein gerechter verteilen; ohne Regeln stärken sie oft zuerst die ohnehin Mächtigen.
Auch hier ist die Entwicklung bereits konkret. Eine Studie des National Bureau of Economic Research (PDF) zeigt, dass stärker KI-exponierte Unternehmen ihre Stellen in nicht KI-nahen Bereichen eher zurückfahren. Das heißt nicht, dass schon heute flächendeckend Massenarbeitslosigkeit zu beobachten wäre; es heißt aber, dass die Verdrängung asymmetrisch beginnt. Zugleich schätzt eine Studie des Europäischen Parlaments, dass bis 2030 mehr als die Hälfte der Beschäftigten in Europa algorithmischem Management ausgesetzt sein könnte.
Dazu kommt die Konzentration an der Spitze. Die OECD warnt: Daten, Rechenleistung und Schlüsselpositionen schaffen in der KI-Wertschöpfung erhebliche Eintrittsbarrieren. Wer die Chips, Clouds und Basismodelle kontrolliert, kontrolliert auch, welche Unternehmen konkurrieren können. Studien zu KI-gestützter Rekrutierung zeigen zudem, dass solche Systeme bestehende Diskriminierungen reproduzieren oder neu kodieren können.
