taz: Frau Nosthoff, das US-Unternehmen Anthropic hat dem Pentagon kürzlich verweigert, seine künstliche Intelligenz für autonome Waffensysteme und Massenüberwachung zu verwenden. Gibt es sie noch, die guten Nachrichten aus dem Silicon Valley?
Anna-Verena Nosthoff: Wäre schön, wenn es die gäbe. Und es wäre auch schön, wenn man das so interpretieren könnte.
taz: Aber?
Nosthoff: Der Konflikt zeigt grundlegend, dass wir uns in einer heiklen Abhängigkeit von diesen Technologien und Unternehmen befinden. Dass Anthropic-CEO Dario Amodei die alleinige Entscheidungsgewalt darüber hat, wie bestimmte KI-Systeme verwendet werden, mag im konkreten Fall richtig entschieden sein, aber eine gute Nachricht ist es nicht gerade.
taz: Nachdem OpenAI verkündet hatte, anstelle von Anthropic mit dem Pentagon zusammenzuarbeiten, brach im Netz eine Welle der Empörung aus. Seitdem wechseln immer mehr Nutzer:innen von OpenAIs „ChatGPT“ zu Anthropics „Claude“. Wer ist hier gut und wer böse?
Nosthoff: Dieses Schwarzweißdenken trifft den Sachverhalt nicht wirklich. Das Problem liegt viel mehr darin, dass diese Firmen einen undemokratischen Technikdeterminismus reproduzieren. Sie alle nehmen an, dass der Wettlauf um die sogenannte AGI (Artificial General Intelligence oder Superintelligenz; d.Red.) unaufhaltsam ist. Jede dieser Firmen ist für sich davon überzeugt, dass nur sie eine „gute“ Superintelligenz entwickeln könne, wobei – sowohl bei OpenAI als auch bei Anthropic – völlig unklar bleibt, wie das zu realisieren ist.
taz: Dabei haftete dem Silicon Valley doch lange der Ruf als liberale Hochburg an. Hat sich daran etwas geändert?
Nosthoff: Derzeit ist ja viel von einer autoritären Wende im Silicon Valley die Rede. Ich denke, dass man dagegen die These vertreten kann: Tech-Bros waren nie liberal.
taz: Inwiefern?
Nosthoff: Da gibt es etwa bestimmte Personen wie Peter Thiel. Der ist schon immer rechts außen gewesen. Thiel hat bereits vor 30 Jahren das Buch „The Diversity Myth“ veröffentlicht, in dem er gegen die „Political Correctness“ und „Wokeness“ wettert. Diese Themen waren auch prägend für die aufkommende Cyber- und Start-up-Kultur der 1980er und 90er Jahre, die zudem sehr maskulinistisch war.
Der Cyberspace – also das frühe Internet – war zusätzlich mit der Vorstellung verbunden, dass sich politische durch technische Ordnungen ersetzen lassen: eine neue Zivilisation fernab von politischen Einschränkungen. Das Silicon Valley vollzieht also derzeit weniger eine Wende, es kommt viel mehr zu sich selbst. Viele Motive, die schon im frühen Valley-Denken angelegt sind, treten jetzt erst richtig auf den Plan.
taz: Warum ausgerechnet jetzt?
Nosthoff: Es finden gerade mehrere Dinge zueinander. Donald Trumps Agenda der Deregulierung stößt im Silicon Valley auf enorme Resonanz. Die Tech-Bros fühlen sich davon bestärkt in ihrem Glauben, Technisierung könne sich erfolgreich nur in einem nicht regulierten Rahmen vollziehen. Dabei dringt wieder der bereits erwähnte Technikdeterminismus durch – die Vorstellung, dass Technik wie eine Naturgewalt über die Gesellschaft kommt – oder auch der Technik-Solutionismus, also die Vorstellung, dass sich komplexe gesellschaftliche Probleme immer mittels Technologie lösen ließen.
taz: Die reichsten Männer dieser Welt verfolgen eher Pläne, die in Richtung Marsbesiedelung, Weltraumtourismus oder der Entwicklung einer KI-Gottheit gehen. Könnten sie ihr Vermögen nicht auch dafür verwenden, das Hier und Jetzt zu verbessern?
Nosthoff: Man muss sich tatsächlich die Frage stellen: Leben die „Tech Bros“ eigentlich wirklich in einem Verblendungszusammenhang oder lassen sich ihre Handlungen nicht einfach durch ökonomische Motive erklären? Ich glaube, dass beides ein bisschen stimmt. In jedem Fall ist es hilfreich, sich die konkret wirksamen Ideologien anzuschauen, um die Handlungsweisen und auch die Strategien dieser Akteure besser verstehen zu können.
taz: Der Longtermismus, von englisch „longterm/langzeit“, ist davon ein Baustein. Was macht diese Ideologie aus?
Nosthoff: Longtermism beruht auf der Vorstellung, dass wir für das größtmögliche Glück der Menschheit sorgen müssen. Allerdings nicht in der Gegenwart, sondern in einer weit entfernten, kaum vorstellbaren Zukunft. Um diese Zukunft nicht zu gefährden, gilt es, alles daranzusetzen, sogenannte existenzielle Risiken zu vermeiden. Interessant ist, dass damit nicht etwa die gegenwärtige Klimakatastrophe gemeint ist, sondern teilweise sehr absurde Sci-Fi-Visionen, die zur Auslöschung der gesamten Menschheit führen könnten. Die reichen von einer der Menschheit feindlich gesinnten künstlichen Intelligenz über Kriege mit Roboter-Armeen bis hin zu einschlagenden Asteroiden.
Elon Musk zum Beispiel ist stark von der Denkweise des Longtermismus geprägt. Über das „Future of Humanity Institute“ und das „Future of Life Institute“ hat er ihre Entwicklung sogar lange Zeit finanziell unterstützt.
taz: Steckt da die Intention dahinter, nicht über potenzielle Gefahren bereits existierender Technologien sprechen zu wollen?
Nosthoff: Es ist auf jeden Fall eine Ablenkungsstrategie. Wir erleben gerade eine enorme Beschleunigung von KI-Systemen, gerade auch im Kontext militärischer Anwendungen. Man könnte sagen, dass diese existenziellen Risiken schon in der Gegenwart bestehen. In der Logik des Longtermismus bedrohen sie aber nicht die Existenz der gesamten Menschheit. Der Longtermismus fragt daher: Warum sollten wir über real existierende autonome Waffensysteme diskutieren, wenn am Horizont die Gefahr einer Roboter-Armee lauert, die sich nicht nur gegen einen Teil, sondern gegen alle Menschen verschwören könnte?
taz: Wie wirkt sich das aus?
Nosthoff: Tatsächlich versuchen Vertreter des Longtermismus politische Regulierung zu beeinflussen. So prägten sie stark den sogenannten „AI-Safety“-Diskurs. Mit dem Ergebnis, dass sich die Diskussion eher auf die existenziellen, hypothetischen Risiken fokussiert, statt die Gegenwartsrisiken in den Blick zu nehmen. Wegen dieser Einflussnahme halte ich es für enorm wichtig, sich immer wieder genau anzuschauen, welche Vorstellungen und Annahmen in Gesetze einfließen, wer diese prägt und woher die dazugehörigen Narrative kommen.
taz: Ein weiterer ideologischer Baustein des Technik-Autoritarismus ist der Akzelerationismus, der auf stetige Beschleunigung setzt. Was hat es mit dem auf sich?
Nosthoff: Es gibt eine linke Form des Akzelerationismus – und eine rechte. Letztere geht unter anderem auf den britischen Schriftsteller und Philosophen Nick Land zurück, der eine totale technologische Deregulierung fordert. Die These lautet: Wir müssen die Technisierung so sehr beschleunigen wie nur möglich, damit es zu einer Disruption bestehender Systeme kommt und sich auf dieser Basis eine neue gesellschaftliche Ordnung entwickeln kann.
taz: Worauf liefe das hinaus?
Nosthoff: Auf eine Herrschaft von Tech-Oligarchen. Schon heute gibt es verschiedene Ausformungen solcher Exit-Visionen. Etwa das Seasteading-Institut, in das Peter Thiel investiert hat. Das will unabhängige Siedlungen auf dem offenen Meer außerhalb staatlicher Hoheitsgebiete errichten. Ein anderes Beispiel sind die gewissermaßen anarchokapitalistisch-libertär organisierten „Freedom Cities“, die etwa Sam Altman und andere Repräsentanten des Silicon Valley unter der Präsidentschaft Donald Trumps laut einfordern.
taz: Düstere Aussichten. Bleibt angesichts dieser Akkumulation von Kapital, Macht und Technik noch etwas anderes übrig als Ohnmacht?
Nosthoff: Ich verstehe das Gefühl. Es ist aber wichtig, dass wir diesem keine Übermacht geben. Wenn wir die Vorstellung aufgeben, diese Dynamiken demokratisieren und regulieren zu können, haben wir bereits verloren. Was es stattdessen braucht, ist eine breite politische Mobilisierung gegen den Technikfaschismus. Und ebenso eine neue Kritik, mit geschärftem Blick auf die Ideologien, denen wir gerade gegenüberstehen.
taz: Und dann?
Nosthoff: Big Tech ist unglaublich stark im Bereich des Lobbyings, gerade auf europäischer Ebene. Daher ist und bleibt die Regulierung – auch, was Lobbyaktivitäten selbst anbetrifft – entscheidend. Dabei dürfen wir nicht vergessen, dass wir politisch handlungsfähig sind. Ich denke, dass wir uns – mit Blick auf die Vermögenskonzentration der Tech-Oligarchen – auch eigentumsrechtliche Fragen stellen müssen.
taz: Klingt gut.
Nosthoff: Wenn man in der Gegenwart das Gefühl hat, ohnmächtig zu sein, und die Zukunft verstellt wirkt, hilft manchmal ein Blick in die Vergangenheit. Ich denke dabei etwa an das Cybersyn-Projekt von Stafford Beer, der im Chile der 1970er Jahre versucht hat, einen demokratisch-kybernetisch organisierten Sozialismus zu schaffen. Beer hat versucht, Gesellschaft und Ökonomie mit kybernetischen Technologien inklusiver und egalitärer zu denken und umzusetzen.
Ein aktuelleres Beispiel ist Barcelonas Gegenentwurf zu plattform-ökonomisch organisierten „Smart-City“-Modellen, unter Francesca Bria als städtische Kommissarin für Technologie und Innovation. Die Stadt hat digitale Infrastrukturen demokratisch und „from below“ für die Bürger:innen verfügbar gemacht, die Abhängigkeit von proprietären digitalen Infrastrukturen – wie etwa von Microsoft – reduziert.
Solche emanzipativen technischen Visionen müssen wir uns immer wieder vor Augen halten. Als Potenziale, um es anders machen zu können. Gerade in dieser verdunkelten digitalen Gegenwart ist es wichtig, dem Technikdeterminismus keinen Vorschub zu leisten.






