Oppenheimer reloaded - KI im Krieg
Geschichte wiederholt sich nicht, aber scheinbar lernen wir auch nicht aus ihr.
Während Julias Robert Oppenheimer fanatisch forschte und mit seinem Team und einer Unmenge an Ressourcen die Atombombe erfand, musste er feststellen, dass er sie in zutiefst menschliche Hände lieferte, die nicht in der Lage waren zu erfassen, mit welchem Kräften sie hier spielten. Mehrmals in der jüngeren Geschichte sind wir nur haarscharf einem „Extinction Event“ – einer Auslöschung der menschlichen Zivilisation – vorbeigeschrammt.
Zwei Mal nur weil ein jeweils russischer Militär nicht das tat, was eigentlich von ihm erwartet wurde. Sowohl Stanislaw Petrov, als auch Wassili Archhipow gehören zu jenen unbesungenen – und sogar bestraften – Helden, die durch ihr Verantwortungsbewusstsein der Menschheit gegenüber, selbige gerettet haben.
Die zweite Hälfte seiner Karriere verbrachte Oppenheimer dann erfolglos mit dem Versuch den Djinn wieder in die Flasche zu sperren. Die Erfindung dieser Massenvernichtungswaffe brachte ihm Ruhm – der Versuch sie einzuhegen Scham, Spott und Intrigen.
Nun geschieht Ähnliches mit KI. Anthropic hat gerade eine Zusage verweigert, dass das amerikanische Militär seine KI unlimitiert im Krieg einsetzen darf – autonomer Waffensysteme inklusive. Dies hat den Zorn des Königs auf sich gezogen und selbiger hat Anthropic kurzer Hand aus allen US-Behörden schmeißen lassen. Anthropic ist als einziger der großen Player immer wieder mit selbstkritischen Studien (siehe KI-Snackautomat bzw. jüngst die „Disempowerment-Studie“) positiv aufgefallen. Es scheint hier zumindest einen Rest an Anstand und Vorsicht zu geben, was man als Regel den Tech-Bros leider nicht unterstellen kann. OpenAI steht nun stattdessen bereit.
Gerade das jüngste Vorgehen der israelischen Armee in Gaza sei hier warnend erwähnt. Aufgrund von Metadaten wurde so viele Ziele ausgemacht wie eben gerade Bomben zur Verfügung standen – anstatt umgekehrt mit Wahrscheinlichkeit der Korrektheit des Ziels als Threshold zu arbeiten. Dazu „witzige“ Subsysteme wie „Where’s Daddy?“ (dadurch sollte festgestellt werden, ob sich das Ziel zu Hause – bei seiner Familie – befand, um es bombardieren zu können) zeigen, dass gerade im Krieg jegliche Technologie eingesetzt wird und sich diese mit hoher Geschwindigkeit weiterentwickelt. Nun ist jedoch ein gewaltiger Unterschied beim Thema KI gegenüber allen bisherigen Waffensystemen: Die Verantwortung.
Ein Messer, ein Gewehr, sogar die Atombombe – auch wenn diese Waffen verschiedene Betroffenheiten bei einem Menschen auslösen – es gibt trotzdem eine klar verantwortliche Person, die den kriegerischen Akt vollzieht und im Zweifelsfall für die Konsequenzen verantwortlich ist.
Wer jedoch ist verantwortlich wenn KI die Ziele im Gazastreifen ausgewählt hat? Ja, es war bei dem System LAVENDER ein Human-in-the-Loop – jedoch hatte dieser Mensch pro Ziel ca. 20 Sekunden Zeit die Daten zu verifizieren. Ein pseudohumanistisches Feigenblatt, zumal der menschliche Bias für computergenerierte Vorschläge offenkundig und gut erforscht ist.
KI als Blackbox negiert sämtliche Verantwortlichkeit. Zumal dies auch vorsätzlich wunderbar verwendet werden kann. Ein aktuelles Beispiel: Wenn europäische Anwälte bei amerikanischen Plattformen Beschwerden bezüglich illegalem Content einreichen, wird der Vorgang mittlerweile meist selbst gefilmt, da es nicht unüblich ist, dass die Plattformen argumentieren, sie hätten die Beschwerde nicht erhalten und der Kläger habe offenbar das Formular falsch ausgefüllt.
Verantwortungsdiffusion ist ein zunehmendes Problem – ob vorsätzlich oder nicht – sei es in einem zunehmend finanziell asymmetrischen Rechtssystem, oder bei Kriegshandlungen.
Nehmen wir ein aktuelles, harmlos wirkendes, Beispiel: Clawbot.
In Techkreisen wird das System hochbejubelt. Endlich der Assistent der „Alles“ für einen machen kann. Ja, nur ohne wirkliche Safeguards. Selbst Experten verfallen seinem Charme und Sommer Yue – eine Sicherheitsforscherin bei META – musste zusehen wie Clawbot ihre Emails löschte und sie den Vorgang nur durch physisches Abschalten des Geräts stoppen konnte. Sie meinte selbst es war ein „Rookie Mistake“ – quasi ein Anfängerfehler, jedoch passieren diese auch laufend Menschen die es grundsätzlich besser wissen müssten. Das ist keine Ausnahme, es liegt in der menschlichen Natur diese Fehler zu begehen.
Was wäre nun, wenn ich einem solchen KI-Agenten die Anweisung gebe: „Help me make money“ und dieser beginnt völlig eigenständig einen Kryptoscam aufzuziehen. Bin ich haftbar? Ist es der Hersteller der Software?
Das Grundproblem ist, dass Sicherheit der Geschwindigkeit gegenübersteht. Und um wieder zum Kriegseinsatz zurückzukommen: Gerade auf einem Schlachtfeld sind schnelle Entscheidungen von großer Bedeutung und führen dazu, dass mehr Entscheidungen auf autonome Systeme verlagert werden. Durch eine Blackbox-Technologie geben wir jedoch damit die Verantwortung ab (was vielleicht sogar von manchen Akteuren gewünscht ist) und bei Skalierung dieser Systemen werden früher oder später immer mehr autonome Systeme, in immer kürzeren Intervallen aufeinander reagieren.
Nur diesmal sind Stanislav und Vasili nicht notwendig um den großen roten Knopf zu drücken, sondern vermutlich im Pausenraum und doomscrollen gerade auf ihrem KI-generierten Tiktok-Feed…