Ein Analyst beim Pentagon hockt vor seinem Terminal. KI-Modelle kauen Satellitenbilder und Signalauswertungen in Echtzeit durch, pressen Entscheidungen von Stunden auf Sekunden zusammen.
Das ist die harte Wahrheit: Das US-Militär plant mit KI Angriffe auf Iran, und keiner der Bosse hat Bock, die unangenehmen Fragen zu stellen. Was passiert, wenn die Algorithmen patzen?
Bekanntes Muster. Neue Tech kommt. Sie ist schneller. Verspricht Effizienz. Militärs lieben das. Und irgendwann – zack – Schläge auf Hochzeiten, Schulen oder Krankenhäuser. Alle gucken baff. Diesmal haben sie ‘nen perfekten Sündenbock: Der Algorithmus war’s.
Die Tempofalle, über die keiner redet
Heidy Khlaaf vom AI Now Institute hat’s auf den Punkt gebracht. Ihre Warnung an die Abgeordneten verdient Zitat:
“Gefährlich, dass ‘Geschwindigkeit’ hier als strategisch verkauft wird – dabei ist sie nur Deckmantel für wackelige Modelle und planloses Zielen.”
Lassen Sie das sacken. Tempo ist hier kein Pluspunkt. Es ist ‘ne Schwäche, die sich als Stärke tarnt.
Zwei Jahrzehnte lang hat das US-Militär “Präzision” als Werbespruch für schnellere, selbstsicherere Fehltritte missbraucht. KI draufpacken – Modelle auf lückenhaften Daten trainiert, validiert mit verkrusteten Datensätzen, blind für Kriegschaos – ergibt keine chirurgischen Schläge. Sondern abgeschobene Schuld.
Legal und ethisch? Bei menschlichen Kommandanten klar: Ziel angreifen, Zivilisten sterben – Verantwortungskette. Schlechte Infos? Jemand hat’s nicht gecheckt. Schlechtes Urteil? Der muss ran. Aber KI markiert Ziel, Analyst – trainiert, dem Ding zu trauen – stempelt ab. Grauzone.
Warum Verantwortung hier zählt (und warum der Kongress endlich hinsieht)
Abgeordnete fordern Aufsicht. Gut. Minimum. Aber Aufsicht über was genau?
Man auditier’t sich nicht aus fundamentalen Fehlannahmen raus. Und die große Macke: Automatisierte Zielentscheidungen seien besser. Sie sind schneller. Selbstsicherer. Das sind verschiedene Paar Schuhe.
Militär tickt eh mit dünner Verantwortung. Einsatzregeln auf Papier. Infos schwammig. Kriegsnebel-Entschuldigungen ohne Ende. Jetzt KI rein, die Infos superschnell verarbeitet und Ziele mit falscher Sicherheit vorschlägt. Fertig: Struktur, wo keiner die Konsequenzen trägt.
Junior-Analyst checkt KI-Vorschlag. Algo sagt “Schlag zu”. Keine Zeit für Zweifel (hat keiner). Abgehakt. Geht was schief. Wer ist schuld? Analyst? KI-Entwickler? Kommandant? Politiker?
Willkommen in der Verantwortungshölle.
Testet das US-Militär diese Dinger überhaupt richtig?
Öffentliche Belege? Fehlanzeige.
Militär-KI wird meist in der Blase getestet. Kontrollierte Übungen, Red-Team-Szenarien, Lab-Bedingungen – alles, was auf Papier glänzt. Realer Krieg? Unvorhersehbar. Feind passt sich an. Infos zerstückelt. Zivilisten tauchen auf. Modelle von gestern kapieren das Chaos von heute nicht.
Und der Clou: Würde das Pentagon massive Tests machen und Probleme finden, kämen Sie nie dahinter. Verschlusssache. National Security. Die üblichen Mauern.
Letzter Rettungsanker: Kongress-Aufsicht. Militär muss erst zugeben, dass was schiefgelaufen ist. Das ist kein System. Das ist Wunschdenken.
Die historische Parallele, die keiner hören will
Waren schon mal da. Nur mit anderer Tech.
1960er: Militärplaner dachten, Vietnam automatisieren mit Leichenbergen, Kill-Ratios und maßgeschneiderten Bomben. PowerPoint-Zahlen top. Realität katastrophal. Lehre? Effizienz-Theater im Krieg heißt: Fehler schneller und selbstsicherer machen.
KI löst das Grundproblem nicht. Sie verpackt schlechte Annahmen in Mathe-Gewissheit.
Was wirklich passieren muss
Aufsicht reicht nicht. Kongress muss drei Dinge tun:
Erstens: Transparenz fordern. Wie trainiert und validiert? Welche Daten? Annahmen? Was bei Fehlern?
Zweitens: Klare Verantwortungsketten. Kein vages “Mensch im Loop”. Konkrete Personen für konkrete Calls.
Drittens, am härtesten: Tempo drosseln. Ketzerisch beim Militär. Tempo ist doch der Sinn. Aber wenn Tempo Verantwortung killt und Zivilopfer steigert, ist das keine Strategie. Sondern Feigheit mit besserem Marketing.
Khlaafs Warnung ist direkt zu Recht. Pentagon holt sich KI nicht aus Humanität oder Ethik. Sondern weil schneller – und Tempo schafft Abstreitbarkeit.
Das ist kein Fortschritt. Nur Automatisierung mit schlechterem Image.
🧬 Verwandte Einblicke
- Mehr lesen: SpaceX’s $1.75T IPO Hype Meets OpenAI Astroturf and Code Leaks
- Mehr lesen: EFF’s FOIA Bomb on Medicare’s Denial Machine
Häufige Fragen
Setzt das US-Militär gerade KI für Iran-Schläge ein? Laut Militärquellen: Ja. Details geheim, aber die Fähigkeit existiert und wird offenbar für schnelle Infos in Konflikt-Szenarien genutzt.
Lässt sich KI-unterstütztes Zielen je zur Verantwortung ziehen? Unter aktuellem Recht: Nein. Verantwortung braucht klare Kausalität zwischen Entscheider und Schaden. KI bricht die Kette. Kongress fängt erst an, das zu kappen.
Verstößt das gegen Völkerrecht? Vielleicht. Genfer Konventionen fordern Unterscheidung Kämpfer/Zivilisten. Wenn KI-Systeme das nicht zuverlässig hinkriegen (Belege deuten drauf hin), verstößt’s gegen humanitäres Völkerrecht. Durchsetzung? Andere Nummer.