Künstliche Dummheit: Warum KI uns in den nächsten Weltkrieg führt

Ein aus Cyborgs und Menschen gemischtes Doppel spielt Schach vor einer Weltkarte

Grafik KI, shutterstock

KI-Systeme unterstützen bereits 34 Regierungen bei außenpolitischen Entscheidungen. Sie versprechen effizientere Diplomatie, doch Algorithmen neigen oft zur militärischen Eskalation.

KI in strategische Entscheidungsprozesse zu integrieren, ist keine ferne Zukunft, sondern Regierungspraxis in mindestens 34 Ländern. Und das verändert die Art und Weise, wie Regierungen Risiken bewerten, Allianzen schmieden und auf Krisen reagieren.

Auch die Bundesregierung und die EU experimentieren damit, KI in verschiedensten Bereichen einzusetzen. Das US-Außenministerium setzt bereits ein KI-Modell namens StateChat ein, während das Verteidigungsministerium auf NiprGPT und CamoGPT zurückgreift.

Die Herausforderung ist klar: Es gilt, sicherzustellen, dass diese Modelle nicht nur fähige Assistenten sind, sondern auch missionsorientiert agieren und darauf abgestimmt werden, Antworten auf Kernfragen im Zentrum von Strategie und Staatskunst zu generieren.

KI-Modelle können zwar durchaus als digitale Assistenten fungieren, die Daten zusammenfassen und Texte generieren können. Doch eine Benchmark-Studie des Center for Strategic and International Studies (CSIS) zeigt, dass sie in kritischen außenpolitischen Entscheidungsbereichen Voreingenommenheiten aufweisen.

KI neigt zur Eskalation in Krisenszenarien

Die Studie testete KI-Modelle gegen 400 Szenarien und über 60.000 Frage-und-Antwort-Paare, die von Fachleuten für internationale Beziehungen entworfen wurden. Die Ergebnisse zeigen einen besorgniserregenden Trend: Einige weitverbreitete Sprachmodelle weisen eine deutliche Voreingenommenheit zur Eskalation in Krisenszenarien auf.

Dabei zeigen sich allerdings deutliche Unterschiede zwischen den verschiedenen Modellen. Der Prozentsatz der KI-Antworten, die eine Eskalation in einem Szenario mit zwei Wahlmöglichkeiten liegt in der Spitze bei 45,1 Prozent (Llama 3.1 8B Instruct). Am unteren Ende rangiert GPT 4.0 mit 16,3 Prozent.

Dieses Ergebnis hat schwerwiegende strategische Konsequenzen. Wenn die Modelle Eskalationen bevorzugen, könnten sie die politische Analyse in entsprechenden Situationen verzerren. Das wiederum erhöht das Risiko von Fehleinschätzungen vor allem in Momenten mit hohem Risiko, in denen nicht viel Zeit für Entscheidungen ist.

KI-Agenten könnten also Tendenzen zur Eskalation in Szenarien verstärken, in denen Zurückhaltung und strategische Zweideutigkeit angesichts der teils erheblichen Risiken für die gesamte Menschheit mit an Sicherheit grenzender Wahrscheinlichkeit zu bevorzugen sind.

Alle Modelle sind falsch, aber vielleicht sind sie ja doch nützlich?

Zu allem Überfluss scheinen die Voreingenommenheiten in Bezug auf Eskalation staatsspezifisch zu sein. Alle Sprachmodelle neigen eher dazu, den USA, dem Vereinigten Königreich und Frankreich in einer Krise zu einer Eskalation zu raten, verglichen mit Russland oder China. Dies spiegelt zwar die zugrunde liegenden Trainingsdaten korrekt wider, macht die Verwendung der Modelle aber keineswegs unproblematischer.

In scheinbarem Widerspruch dazu zeigten die KI-Agenten in allen getesteten Grundlagenmodellen eine starke Präferenz für kooperative Ansätze in der internationalen Politik. Der Widerspruch ist darauf zurückzuführen, dass dieser Teil der Untersuchungen keine Entweder-Oder-Szenarien beinhaltete. Der Vorrang für diplomatische Ansätze wird von den Wissenschaftlern auf die Häufigkeit zurückgeführt, mit der internationale Institutionen in den Trainingsdaten diskutiert werden.

Interessanterweise machen sich die Forscher in diesem Zusammenhang Sorgen, dass die Sprachmodelle Faktoren wie Absicherungsstrategien, selektive Engagements oder sogar erzwungene Diplomatie übersehen könnten. Die strategischen Realitäten des 21. Jahrhunderts haben sich nach Ansicht der Wissenschaftler stark gewandelt, und der Wettbewerb der Großmächte sei intensiver geworden.