Krieg und Digitalisierung


Die Hegung und klare Begrenzung des Krieges enthält eine Relativierung der Feindschaft[1]. Jede solche Relativierung ist ein großer Fortschritt im Sinne der Humanität. … Dem europäischen Völkerrecht des zwischenstaatlichen Landkrieges ist der seltene Schritt jedenfalls gelungen. … (Carl Schmitt, Zum Begriff des Politischen/ Vorwort) 

Zur neuen Normalität der Kriege – nur eine Vorbemerkung

Der Krieg war nie abwesend. Kriege waren immer. Ob Korea, Vietnam, Algerien, Afghanistan, Nicaragua … Warum es heutzutage eine neue Konjunktur kriegerischer Auseinandersetzung zwischen und von Staaten gibt, wäre eine eigene Überlegung wert. Zwar hat die Gesamtzahl kriegerischer Konflikte nicht zugenommen, wohl aber die Anzahl von Konflikten, bei denen externe Staaten in Konflikte intervenieren oder Expansionskriege führen.[2] Das hat natürlich etwas mit der verpassten Chance nach 1989 zu tun, den Ungewissheiten, ob der Kapitalismus eine Zukunft hat, wie ein post-fossiler Kapitalismus aussehen könnte. Es hat etwas mit dem Ende Europas zu tun, und und und … Aber um all das soll es hier nicht gehen. Es geht vielmehr um den Zusammenhang von Digitalisierung und Kriegsführung, näherhin um eigentlich nur zwei Punkte: Um digitale Waffen und ihre Auswirkung auf die Kriegsführung und um die Auswirkung von Digitalisierung auf die Bilder von Kriegen, die wir uns machen und um die Frage nach unserem Verhältnis zur Wirklichkeit von Kriegen und ihrer Grausamkeit. 

Disruptive Technologien?

Drohneneinsätze, die Verwendung von KI und ferngesteuerten Waffensystemen sind nicht erst seit dem Krieg gegen die Ukraine Thema. Erinnern wir uns an die wargames-ähnlichen Bilder aus dem Krieg gegen den Irak. Der war on terror hat schon in den zweitausender Jahren eine neue Form von Kriegsführung in Gang gesetzt, deren vorrangiges Bild sich im massiven Einsatz von Drohnen spiegelt. Ob es sich dabei aber um disruptive Technologien handelt, also um Waffentechnologien, die die gesamten kriegsstrategischen Überlegungen seit dem 1. Weltkrieg über den Haufen werfen, ist nicht sicher. Ein großer Teil z.B. der gegenwärtigen israelischen Angriffe auf Gaza und im Iran sind immer noch menschlich gesteuerten, flugzeugunterstützten Bombardierungen geschuldet.[3] Ein gewisses Misstrauen ist gegenüber dem Begriff der disruptiven Drohnentechnologien angebracht. Gerne wird der Begriff von jungen startups zur Vermarktung ihrer massenhaft produzierten Billigdrohnen benutzt, wie es z.B. bei der Firma Helsing und ihrem propagierten „Drohnenwall“ der Fall ist, mit dem sie ganz Deutschland (gegen wen?) schützen wollen. Zu Beginn des Krieges gegen die Ukraine ging man noch davon aus, dass sich sein Verlauf über schweres Gerät wie Panzer, Artillerie und Häuserkämpfe entscheiden würde. Heute weiß man, dass mindestens siebzig Prozent aller Toten im Krieg der Ukraine durch Drohnenangriffe hervorgerufen sind. Insofern könnte richtig sein, was der französische Nato-Admiral Pierre Vandier sagte: „Der Krieg ist eine Mischung aus dem Ersten und dem Dritten Weltkrieg – was ein Krieg der Zukunft sein könnte“. Also doch ein disruptiver Krieg? Vieles spricht dafür. Zu bedenken wäre allerdings auch, dass ein weiterer völkerrechtswidriger Krieg (gegen den Iran) wiederum ein eher konventioneller Angriffskrieg war, indem extrem schwere, bunkerbrechende Granaten von erheblicher Sprengkraft mit konventionell besetzten Kampfflugzeugen ins Ziel gebracht wurden. Low- und hightech sind miteinander verbunden. Während die ersten Drohnen per Funk gesteuert wurden, wurden in der Dynamik des Krieges von Aktion und Reaktion „Kabel“ gesteuerte Drohnen, genauer durch hauchdünne Glasfaser gelenkte Drohnen, entwickelt. Diese Entwicklung verweist auf das Phänomen, dass sich die Charakteristika und Logiken von 1. und 3. Weltkrieg vermengen und insofern auch die Kriege der Zukunft „just-in-time“-Kriege, zumindest in Bezug auf Beschaffung und Rüstung, werden. Denn je nach militärischer Lage wird auf eines der Elemente (low oder hightech, 1. oder 3. Weltkrieg zurückgegriffen) und damit der Krieg beschleunigt (Echtzeitprozesse). Andererseits ist derjenige, der jetzt Krieg führt, für die Zukunft klar im Vorteil. Denn durch die Digitalisierung gewinnen die Kriegsparteien und eventuell ihre Partner Zugriff auf einen ungeheuren Datenschatz an Bildmaterial. Hatte alltägliche Bilderkennungssoftware zu Beginn vielleicht noch Probleme ein halbes Pferd eben als halbes Pferd zu erkennen ist es ihr heute möglich. Auch militärische Bilderkennungssoftware braucht das Training. Konnte es zu Beginn vielleicht einen Leopard II Panzer auf offener Wiese erkennen, ist es ihr heute möglich einen Leopard II Panzer, der hinter einer Baumgruppe, verschneit und mit Tarnvorrichtungen bedeckt ist, zu erkennen. Nur wer solches Bildmaterial in Massen besitzt, kann effektiv am KI- bzw. Drohnenkrieg teilnehmen. Das wirft die Frage auf, wer eigentlich alles Interesse am Krieg hat. Also ist auch Elon Musk Teil des militärisch- industriellen Komplexes geworden, in dem er Star-Link als zentrales Kommunikationstool für das ukrainische Militär zur Verfügung gestellt hat. Seine Infrastruktur ist aktuell alternativlos. Das heißt, dass sich die gesammelten Daten in den Händen eines Unternehmers befinden, der damit vor allem Profit machen und seine Algorithmen trainieren will, die wiederum an die Logik von „Digitalisierung und die Macht der Bilder“ anschließen. Es ist die totale Kybernetisierung des Krieges: Selbstreferentielle und bedeutungslose Kriegsführung zum Zweck der Informationsverarbeitung zu Daten mit dem Abfallprodukt toter Biomasse „Mensch“. 

Zum Einsatz von Drohnen

Den entscheidenden, aber nicht alleinigen Anteil an aktuellen Kriegsführungen spielen unterschiedliche Arten von Drohnen, die aber wieder jeweils auf sehr unterschiedliche Art etwas mit Digitalisierung zu tun haben. Die einfachste Form von Drohnen, es wurde schon darauf hingewiesen, sind schlicht ferngesteuerte Granaten, Geschosse, Streumunitionen etc. Ein erheblicher Teil ihrer Gefährlichkeit liegt schlicht in ihrer massenhaften Verwendung und je spezifischen Funktionen als Personendrohnen, im Angriff gegen unterschiedlich gepanzerte Fahrzeuge oder als Anti-Drohnen-Drohnen.

In einem Artikel der New York Times wird ihre Wirkungsweise gut beschrieben: „Die Schützengräben, die sich über Hunderte von Kilometern entlang der Front ziehen, sind nach wie vor unverzichtbar für die Verteidigung, doch heute sterben die meisten Soldaten oder verlieren Gliedmaßen durch ferngesteuerte Flugzeuge, die mit Sprengstoff beladen sind und oft nur leicht modifizierte Hobby-Modelle sind. Drohnenpiloten greifen aus der Sicherheit von Bunkern oder versteckten Positionen in Baumreihen mit Joysticks und Videobildschirmen an, oft kilometerweit entfernt vom Kampfgeschehen. Schnelle Autos oder Lastwagen bieten keinen Schutz mehr vor den noch schnelleren Drohnen. Soldaten marschieren kilometerweit, ducken sich in Deckung und durchqueren drohnenverseuchte Gebiete, die für Jeeps, gepanzerte Mannschaftstransporter oder Panzer zu gefährlich sind. Soldaten sagen, es sei seltsam persönlich geworden, wenn summende Roboter bestimmte Autos oder sogar einzelne Soldaten jagen. Es sei, sagen sie, als stünden tausend Scharfschützen am Himmel. ‚Vor Artillerie kann man sich verstecken‘, sagte Bohdan, stellvertretender Kommandeur der Nationalen Polizeibrigade. Aber Drohnen, sagte er, ‚sind eine andere Art von Albtraum’.“[4]

Drohnen dienen der Aufklärung, distanzieren Angreifer und Angreifer voneinander, sie erhöhen die Geschwindigkeit des Krieges … Die Ukraine kündigte an, 2025 bis zu 8000 Drohnen täglich zu produzieren[5], ohne diejenigen mitzuberücksichtigen, die im Ausland eingekauft werden. Von hier aus kann man möglicherweise extrapolieren, wie viele Drohnen Russland im Kampf gegen die Ukraine einsetzt. Wie gesagt, sind die sogenannten „first-person-view“-Drohnen, die ferngesteuert auf GegnerInnen abgefeuert werden, noch weit weg von sogenannten digitalen und mit KI ausgestatteten Waffensystemen. Aber natürlich gibt es auch bereits Schwarmdrohnen, die untereinander Informationen, also Daten austauschen oder Einzeldrohnen, die selbständig gegnerische Ziele identifizieren. Wie groß der Anteil solcher LAWS ((Lethal Autonomous Weapon Systems) aber bereits ist, lässt sich momentan kaum sagen. 

Zum Einsatz von KI

Wie aber lässt sich nun genau der Anteil von Digitalisierung an dieser neuen Form von Kriegsführung bestimmen und worin besteht er? In einer Broschüre des Forums InformatikerInnen für Frieden und gesellschaftliche Verantwortung wird das anhand des Systems Lavander der israelischen Streitkräfte folgendermaßen beschrieben: Es ist „eines jener militärischen Systeme, die Machine Learning nutzen, eben jenen Teilbereich der KI, der algorithmisch bzw. mit statistischen Methoden Daten analysiert, um Muster in ihnen zu erkennen. Diese Muster dienen als Basis für automatisierte Empfehlungen an Führungs- und Einsatzkräfte, um sie auf verschiedenen Ebenen der Befehlskette bei der Lösung halbstrukturierter und unstrukturierter Entscheidungsprozesse zu unterstützen. Aus diesem Grund spricht man bei dieser Technologie auch von einer datengetriebenen: data driven.“[6]

Das, was man also fälschlicherweise immer wieder als „künstliche Intelligenz“ beschreibt, ist nichts anderes als die immense Fähigkeit, Daten zu sammeln, sie statistisch zu verarbeiten, Mustererkennung durchzuführen und mit Hilfe programmierter Algorithmen Schlussfolgerungen ziehen zu lassen. Solche Schlussfolgerungen sollen dann „bei der Lösung halbstrukturierter und unstrukturierter Entscheidungsprozesse unterstützen“. Die nächste Stufe wären dann sogenannte Lethal Autonomous Weapon Systems (tödliche, autonome Waffensysteme), die ihre Entscheidungen computerbasiert selbständig fällen, sei es nun in Rückkopplung an Datenzentren oder auf der Basis der ihnen eigenen Datenmengen. Was das genau für die Kriegsführung bedeutet, lässt sich wiederum an Programmen der israelischen IDF darstellen. Das hier auf israelische Waffen und Informationssysteme zurückgegriffen wird, ist ausschließlich der Tatsache geschuldet, dass Israel aufgrund seiner Softwareforschung und seiner immensen Unterstützung bei Hardwaresystemen (seien es Waffen oder Großcomputer) entwicklungstechnologisch in vorderster Reihe bei solchen Waffensystemen steht.

Wie kann man sich nun solche Waffensysteme vorstellen? Dazu werden immer wieder die Systeme „Habsora“ und „Lavender“ herangezogen, über die es einigermaßen verlässliche inoffizielle, aber auch einige offizielle Äußerungen gibt. Es geht dabei vor allem um zwei Artikel des Journalisten und Filmemachers Yuval Abraham.[7] 

Habsora

Habsora, oder im Englischen Gospel, zu deutsch vielleicht „frohe Botschaft“ ist ein System, dass wie fast alle, die sich mit dem Euphemismus „Intelligenz“ schmücken, zunächst nur eine riesige Datensammelmaschine ist. Dieses Programm existierte bereits vor dem Angriff auf Gaza im vergangenen Jahr. Seine Datenbasis generiert es vermutlich aus Satelliten- und Drohnenbildern, Messangertexten, Handynachrichten etc. Diese Datenmengen werden dann maschinell so bearbeitet und verknüpft, dass sie für entsprechenden Soldaten, sogenannte Analysten, die Grundlage für Waffeneinsätze (Orte/ Personen/ Zeit) geben. Die frohe Botschaft, das Evangelium hat also die Aufgabe, dem menschlichen Analysten eine Empfehlung für eine Zielerfassung zu geben. Wie weit der Weg von hier aus bis zu „Lethal Autonomous Weapon Systems“ ist oder schon gegangen wurde, ist unbekannt. In der Logik der unglaublichen Datenmengen und der Geschwindigkeit mit der sie be- und verarbeitet werden, liegt es aber sicher. 2023 sagte der ehemalige Stabschef der israelischen Streitkräfte Aviv Kochavi in einem Interview, dass dieses Programm schon 2021 in der Operation Guardian of the walls (Gaza) ca. 100 neue Ziele pro Tag (vermeintlich) identifiziert hat. Zum Vergleich: mit Hilfe konventioneller Aufklärungsmethoden wurden bis dahin gerade einmal 50 Ziele pro Jahr identifiziert.[8] Solche Formen von Zielbestimmung gibt es allerdings schon länger: „‚We kill people based on metadata‘, konstatierte General Michael Hayden, ehemaliger Direktor der Nationalen Sicherheitsagentur (NSA) und der CIA, am 1. April 2014 (zit. nach Cole 2014). Die Frage nach dem Sinn weltweiter Totalüberwachung ist mit Blick auf solche Tötungsprogramme neu beantwortet. Sie ermöglicht eine nahezu beliebige Identifikation, Lokalisierung und Liquidierung unliebsamer Personen ohne nennenswerte externe oder demokratische Kontrolle.“[9] 

Lavendar

Solche Fähigkeit zur immens schnellen, massenweisen Datenverarbeitung wurde bei sogenannten Targeting Directorate nutzbar gemacht. Die Programme Lavendar und „Where is daddy“ der IDF scheinen der gegenwärtige „State of the art“-Entwicklungsstand dieser sogenannten KI zu sein. Auch hier handelt es sich um die Analyse riesiger Datenmengen: In diesem Fall von knapp 2,3 Millionen PalästinenserInnen, die mit Hilfe von Massenüberwachungen gewonnen wurden. Wiederum mit Hilfe von Algorithmen wird auf Grund des Verhaltens der Menschen, ihres sozialen Umfeldes, ihrer Familien, ihrer Bekannten, ihrer Bewegungs- und Kommunikationsprofile die Wahrscheinlichkeit berechnet, ob sie Sympathisanten oder Mitglieder der Hamas etc. sind. Diese Wahrscheinlichkeit wird auf einer Skala von 1- 100 bewertet – und zwar für fast jeden Einwohner und jede Einwohnerin von Gaza.

In den ersten Wochen der Militäreinsätze in Gaza sei die Armee fast ausschließlich auf Lavendar angewiesen gewesen. Ca. 37.000 PalästinenserInnen wurden auf diese Weise als militärische Ziele markiert. Lavendar soll „mit ‚gesammelten Daten‘, ‚basierend auf […] Kommunikationsprofilen‘ oder ‚Trainingsdaten‘ arbeiten, und es ‚lernt, Merkmale bekannter Hamas- und PIJ-Aktivisten zu identifizieren‘, um ‚dieselben Merkmale – auch ‚Features‘ genannt – in der allgemeinen Bevölkerung zu finden.“, so der Journalist Abraham. Denken wir daran, welche Datenmengen und in welcher Geschwindigkeit diese Datenmengen gesammelt (und verknüpft, strukturiert und bewertet werden), dann kommt einem folgende Schlussfolgerung nicht absurd vor: Die „Ergebnisse von Lavender (würden) wie menschliche Entscheidungen“ behandelt und „das menschliches Personal (dient oft nur) als ‚Abnickverein …, um sie auszuführen, während „das einzige Protokoll zur menschlichen Überwachung vor der Bombardierung der Häuser“ der identifizierten Ziele „eine einzige Überprüfung (war): Es wurde sichergestellt, dass das von der KI ausgewählte Ziel männlich und nicht weiblich war”, ein Überprüfungsprozess, der laut den Quellen „nur wenige Sekunden” oder etwa „20 Sekunden” dauerte.“ So schreibt Abraham in einem seiner Artikel. 

Where is daddy?

Auf ähnlichen Prämissen beruht auch das Programm „Where is daddy?“, dass auf Grund der gesammelten Daten identifizierte Personen trackt und lokalisiert, und sie, sobald sie zuhause (im Haus ihrer Familie, mit ihrer Familie) angekommen ist, zum militärischen Ziel erklärt. Je nach (vermeintlich) militärischem Rang in der Hamas wurde für diese Einsätze eine variierende Anzahl von zivilen Kollateralschäden angenommen, die ebenfalls maschinell errechnet und klassifiziert werden. Auf dieses Programm angesprochen, sagte ein Sprecher der IDF, dass es sich lediglich um die Verknüpfung von verschiedenen Datenbanken mit sozusagen gesicherten Erkenntnissen handle, und dass mit diesem System nicht die Wahrscheinlichkeit berechnet würde, dass eine Person „Terrorist“ sei.[10] Auch hier sehen wir, dass es sich bei solchem Einsatz von sogenannter KI noch nicht um den Einsatz automatisierter und selbsttätig agierender Waffensysteme handelt, sondern um das Zusammenspiel von Computeralgorithmen und menschlicher Mordtat. Wobei sich im Einzelfall vielleicht auch wiederum Drohnen zwischen Mensch und Computer schieben und so wiederum eine distanzierende Vermittlung zwischen Soldat und Ermordetem schiebt. 

Feinderklärung und Kriegsform

Der Einsatz von Drohnen und künstlicher Intelligenz, also digital gesteuerten und entschiedenen Zieleinstellungen sind also zunächst einmal voneinander unabhängig zu betrachten. Überwachungsprogramme, Datenbanken und mit KI gesteuerte Zielbestimmungen können ebenso von Drohnen wie von konventionellen Waffensystemen zu Ende gebracht werden. Deshalb sollte man noch einmal die unterschiedlichen Einsatzziele dieser neuen Technologien in den Blick nehmen. Da ist zum einen ihr Einsatz in der sogenannten Terrorbekämpfung, man könnte auch sagen, im Partisanenkampf. Die neue, digitale Form von Zielbestimmung, tracking und Tötung von vermeintlichen Feinden läuft oft jenseits regulärer Kriegserklärungen im Sinne des Völkerrechts und Kontrolle durch sogenannte demokratische Institutionen. Ein Beispiel dafür wäre die kurz nach dem 11.09.2001 erlassene „Authorization for use of Military force“, die weltweit Militäreinsätze gegen den internationalen Terrorismus (?) ermöglichte. Angriffe und Tötungen sind darin eher Geheimdienstoperationen als Attacken im Sinne konventioneller Kriegsführungen. Überhaupt scheint der Begriff des konventionellen Krieges an dieser Stelle keine grundlegende Bedeutung mehr zu haben. Man könnte eher davon reden, dass diese Auseinandersetzungen mit dem Begriff des Partisanenkrieges beschrieben werden könnten. Zu dessen Kriterien gehören die Irregularität, gesteigerte Mobilität und die Intensität, d.h. ein gesteigertes und verabsolutierendes Feindverständnis in Kombination mit dem Einbezug des Fortschritts von Technik und Wissenschaft. Es war der Verfassungsrechtler Carl Schmitt[11], der in diesem Sinne den Partisanen definierte. Erstaunlicherweise erleben wir heutzutage eine Umkehr seiner Definition in der Tatsache, dass Regierungen und Geheimdienste in diesem Sinne zu Partisanen geworden sind. Es handelt sich nämlich um die Renaissance der „Kriminalisierung“ des Gegners und die Rückkehr zur „absoluten Feindschaft“. Nur wird der Charakter der unmittelbaren Konfrontation durch die Technologe distanziert und die „Sippenhaft“ durch algorithmisch definierte Quantitäten vertretbarer Kollateralschäden ersetzt. Feinderklärung und Kriegsform treten merkwürdig auseinander. Die Programmierung der Algorithmen (also Programmierung eindeutiger Handlungsvorschriften zur Lösung eines spezifischen Problems) zur Zielerfassung und Tötung geschieht in den Forschungszentren und Softwareschmieden, wobei die Problemlösungsbestimmung sicherlich durch geheimdienstliche und militärische Überlegungen vorgegeben ist. Die Feindbestimmung dagegen ist Aufgabe des neuen Typus postdemokratischer Führungsfiguren wie Trump, Putin oder Merz[12] in eben der Vermittlung absoluter Feindbestimmung mit einer Politik von Ausnahmezuständen zweiter Ordnung.[13] Rechtliche und ethische Debatten über die Extensität von Kriegsführung ebenso wie Implikationen der neuen Technologien und ihrer Entscheidungsfindungen scheinen fast gänzlich verschwunden.

Anders steht es um den Einsatz von digitalisierten Waffen im sogenannten konventionellen Krieg. Er wird heute vielleicht mehr und mehr zur Ausnahme. Der klassische Stellungskrieg, wie er sich im ersten Weltkrieg auf Grund von waffentechnologischen Entwicklungen vor allem der Artillerie entwickelt hat, stand zwar am Beginn des Krieges Russlands gegen die Ukraine. Er wurde aber sehr schnell durch die eben neue Entwicklung des massenhaften Einsatzes von (Billig-)Drohnen ersetzt. Wie gesagt, bewegen sich die Schätzungen von Opferzahlen aufgrund dieser neuen Waffentechnologien zwischen 70 und 90% an der Gesamtzahl aller Getöteten und Verletzten. Die „thousend sniper in the sky“, ihre Sensortechniken machen es fast unmöglich, sich zu verstecken. Trotzdem hat dieser Krieg noch sehr viel vom konventionellen Stellungskrieg. Es gibt kaum Gebietsgewinne, die Fernsteuerungseinheiten für Drohnenangriffe liegen eingegraben am oder hinter dem Frontverlauf, immer in der Angst, ihrerseits von feindlichen Drohnen erkannt und als Ziele klassifiziert zu werden. Halbautonome Drohnen allerdings sind inzwischen in der Lage, bis weit hinter den Frontlinien Ziele zu attackieren, und man hat den Eindruck, dass diese Form von Kriegsstrategie zunimmt. Vielleicht sind wir hier – wie schon im ersten Weltkrieg – an einem Scheidepunkt kriegsstrategischer Formen angelangt, die aber wohl noch von der weiteren Entwicklung der Waffentechnologien abhängen. Der Krieg zwischen Russland und Ukraine scheint insofern ein großes Laboratorium von Waffenentwicklungen zu sein. Wie sich dies auf die Kriegsformen auswirken wird, ist wohl noch ungewiss. Aber sollte es zu massenhaften Einsätzen der sog. „Lethal Autonomous Weapon Systems“ kommen, wird das klassische „Schlachtfeld“ wohl aus den militärischen Überlegungen verschwinden. Die Verlegung der kriegsstrategischen Einsatzcenter in high-tech-Labore wird dann vielleicht eher an Dota 2 – Wettbewerbe erinnern oder auch ganz ohne Bilder über statistische Zahlenreihen, und nochmals zu einer Entkoppelung der Wahrnehmung von Gewalt, Tod und eigenem Handeln der Kombattanten führen. Am Ende werden die Beteiligten vielleicht erstaunt darüber sein, wirkliche Menschen getötet zu haben, reales menschliches Leben beendet zu haben. Die Bilder der Ergebnisse ihres eigenen Handelns werden ihnen dann wohl maximal nur noch über Monitore und touchscreens sichtbar. 

Digitalisierung und die Macht der Bilder

Das gilt im übrigen nicht nur für die „virtuellen“ Kombattanten, sondern genauso für die sogenannte „Zivilbevölkerung“ und ihre Wahrnehmung des Krieges. Auch wenn nicht sicher ist, ob sie in zukünftigen Kriegsszenarien zunehmend unter algorithmisch definierte Kollateralschäden fallen, oder ob der Krieg nicht gerade aufgrund seiner technologischen Entwicklung die Grenze zwischen Zivilbevölkerung und Kombattanten immer mehr aufhebt, ist es doch bis jetzt so, das wir auf bestimmte Art zu ZuschauerInnen der Kriege werden.

Auch im Blick auf die Wahrnehmung der Kriege ist noch nicht deutlich, wie sich unsere Zuschauer- und Komplizenhaftigkeit entwickeln wird: Werden wir Gefangene der medialisierten Bilder bleiben, oder wird auf Grund der veränderten Kriegsführungen das Interesse an Bildern verschwinden? Noch am 11. September 2001 wurden wir vor den Fernsehern in die Echtzeit des Angriffes auf die Twin-Tower hineingezogen. Die Gleichzeitigkeit und die Bilder formten unser Verhältnis zu den Ereignissen. Der Fernseher war unsere Prothese des elektronischen Zeitalters, unser Griff auf die Geschehnisse am anderen Ende der Welt. (McLuhan) Aber er koppelte nicht nur Bilder und Töne an unser Erleben zurück und schuf dadurch ein global village, eine neue gemeinsame Kultur. Er schuf eben eine neue, eine noch nie dagewesene Kultur. Der Fernseher war nicht einfach eine Daguerreotypie, ein Abbild der Wirklichkeit, sondern eine Camera obscura, eine Verkehrung der Welt, genauer: eine neue Vorstellung. Die Macht der Bilder holte den Schrecken nicht in das eigene Wohnzimmer, sondern rief den Schrecken erst hervor, sie machten uns eben nicht zu Zeugen des Schreckens in New York oder Bagdad. Vielmehr blieb uns der Schrecken in Echtzeit verborgen. Wir hatten nicht am Anschlag teil, sondern an einem globalen Spektakel. Ähnlich war es dann im Krieg 2003, an dem wir als Mitspieler eines Ego-Shooters ohne Joystick teilhaben konnten.

Die Bilder schufen einen Schrecken mit je eigener Ästhetik zwischen dem Bangen darum, ob der Tower jetzt einstürzen würde (Zeitlichkeit) und der Teilhabe als embedded Zuschauer zwischen den nachts grell blitzenden Raketeneinschlägen in Bagdad (Bilder). Diese Ästhetik war selbst eine Wirklichkeit, und nicht nur die Art und Weise, wie wir mit der Wirklichkeit verbunden waren. Die Technik, die diese Ästhetik hervorruft, ist nicht nur die Extension des menschlichen Körpers, die RGB-Pixel des Fernsehers unsere Verbindung zur Welt. Die Technik selbst ist es, die eine (zerstörerische) Macht auf den Menschen ausübt: Wenn die Technik tatsächlich als Extension des menschlichen Körpers verstanden werden muss, impliziert dies zugleich die Tatsache, dass sie einer Amputation menschlicher Organe gleichkommt: Der Phantomschmerz, der der Amputation eigen ist, ist realer Schmerz, aber unser eigener Schmerz, also der Schmerz der Bilder und der Daten, nicht der Schmerz der Menschen. Der angesichts der Bilder empfundene Schmerz ist nicht der Schmerz der Anderen, nicht die Trauer über die Gewalt; er ist keine Empathie. Der Schmerz über die Gewalt ist nacktes Simulakrum. Die Antlitze der Menschen haben sich der Gewalt, die den Anderen angetan wird, längst verschlossen.

Aber inzwischen leben wir ja schon nicht mehr im Zeitalter von Film und Fernsehen. Verbunden sind wir mit der Welt nicht mehr durch die Bilder, durch das synchrone Echtzeitkino, sondern vielmehr durch die Datenströme und Algorithmen. Die Extension des menschlichen Körpers liegt im 7-Zoll-Display des smartphones, der social-media, sie liegt im chat von Telegram, Signal oder den Chiffreketten von twitter, den Kurzfilmen von TikTok. Mit dem aktuellen Krieg in der Ukraine sind wir in erster Linie nicht mehr durch das Faszinosum der Gleichzeitigkeit, sondern durch die permanenten Datenströme verbunden. Trotz der Permanenz dieser Datenströme aber erzeugen sie keine Chronologie, keine wirkliche Zeitlichkeit, keine Entwicklung (weder in die Katastrophe noch in deren Ende). Es sind vielmehr Informationssplitter, die von den Algorithmen der software völlig unabhängig von dem, was in der Ukraine geschieht, zum Kaleidoskop der vielen Bedeutungen umgeformt werden. Jeder hashtag kann sich zu einer vorübergehenden Bedeutung verdichten. Er braucht die Bilder nicht mehr substantiell, erinnert fast eher wie in einer Regression an den newsticker der telegrafischen Epoche, erweitert nur durch Memes, die Produkt des Algorithmus und Schöpfung von Bedeutung sind. Die Bedeutungsproduktion hat sich von der Zeitlichkeit gelöst, sie vollzieht sich in der Logik der Algorithmen der Big Five.

Das Urteil über den Krieg, seine Dimensionen, Ursachen oder Auswirkungen verkommt zum hektischen Versuch der chat- und twitter-Reaktion: Waffensammeln für diese oder jene Bevölkerungsgruppe, der Drei-Sekunden-Phantomschmerz über das genauso lange dauernde Video über eine auf dem Bürgersteig eingeschlagene Granate, ein neu gefundener hashtag über ein ungehörtes Kriegsereignis, das in den Algorithmus eingespeist werden muss. So schrieb Mc Luhan: „Statt sich auf eine riesige alexandrinische Bibliothek hinzubewegen, ist die Welt ein Computer geworden, ein elektronisches Gehirn […] Und so wie unsere Sinne sich nach außen gestülpt haben, so dringt der Große Bruder in uns ein. Folglich werden wir, wenn wir uns dieser Dynamik nicht bewusst sind, schlagartig in eine Phase panischen Schreckens hineingeraten, was genau zu unserer kleinen, von Stammestrommeln widerhallenden Welt, zu unserer völligen Interdependenz und aufgezwungenen Koexistenz passt.“ (McLuhan, Krieg und Frieden im globalen Dorf 1968) Die Irrationalität der Begegnung und Konfrontation mit der Gewalt, auch dort, wo sie der Bilder beraubt, aber um den Moment des Augenblicks gefestigt ist (social media, twitter …) rührt also aus der Produktion des Simulakrums durch die Technik selbst, und so hängt unsere Reaktion natürlich (oder: als 1. Natur) an der besonderen Form der Technik.

Aber offenkundig unterliegt die emotionalisierende, aphrodisierende Wirkung der codierten Gewalt- und Kriegspixel dem Prinzip der Echtzeit, das darin besteht, jeder Zeitlichkeit zu vernichten. Bei der 0-1-Maschine geht es immer darum, sie so auf ein Ereignis reagieren zu lassen, dass ihre Reaktion noch eintritt, solange das Ereignis anhält. Je schneller der Computer reagiert, desto besser. Es geht also um Gleichzeitigkeit und damit Beschleunigung, Komprimierung der Zeit bis zu ihrer Aufhebung! In der KI-gesteuerten Kriegsführung soll damit ein strategischer Vorsprung herausgearbeitet werden, der aber die Reaktionsfähigkeit der Entscheidungsteams überfordert und sie deshalb überflüssig macht. Zeit verkommt zur unverbundenen Aneinanderreihung von „Echtzeitprozessen“, ist also eigentlich Vernichtung von Zeit.

Auch auf den Schlachtfeldern der aktuellen Kriege findet man diese Logik, wenn man diese Aufhebung der Zeit als Stillstand betrachtet. Die Soldaten in den Schützengräben der Ukraine harren aus, tage-, wochen- oder sogar monatelang, ohne das etwas nennenswertes passiert. Sie erleben ihren Kampf als eine Gleichzeitigkeit von Stillstand und Beschleunigung. Die Beschleunigung rührt daher, dass sie zum einen – vernetzt und „informiert“ – Zuschauer ihres eigenen Krieges werden, zum anderen erleben sie durch die Drohnen die allgegenwärtige Bewegung und Aktion der „Scharfschützen am Himmel“. Insofern ist der 1. und 3. Weltkrieg nicht nur eine militärische oder historische Logik, sondern scheint sich aus der Logik der modernen Technik zu speisen.

Für den smartphone-Zuschauer auf TikTok etc. befördert dies eine Virtualisierung des Ereignisses, die alle gleich-gültig macht. Vielleicht führt auch dieses Moment neben dem andauernden Stellungskriegseffekt dazu, dass die Bilder an Bedeutung und Attraktion verlieren und von den Algorithmen ganz nach hinten in die priority-lists versetzt werden und so verschwinden. Die neuen Formen der Digitalisierung des Krieges führen insofern zu einer spezifischen Entmenschlichung, weil Empathielosigkeit und Distanz gegenüber den wirklichen Geschehnissen sowohl auf der Seite der Produzenten als auch bei den RezipientInnen überhand nimmt. Entmenschlichung – wenn wir uns denn noch trauen an so einem humanistischen Konzept festzuhalten – war natürlich immer schon ein Merkmal des Krieges. Sie nimmt aber neue Formen an.


[1] Denken wir an das Verbot von Anti-Personenminen, das von vielen als eine der größten humanitären Errungen-schaften der Nachkriegszeit gilt: Es wird zunehmend aufgeweicht. Polen, Finnland, Estland, Litauen und Lettland planen das Abkommen zu verlassen.

[2] https://de.statista.com/statistik/daten/studie/168188/umfrage/anzahl-internationale-konflikte/?__sso_cookie_checker=failed. zuletzt abgerufen 26.06.2025.

[3]. „Most of the bombs that reportedly damaged or destroyed more then half of the housing units in Gaza were dropped by manned warplanes by rather conventional means.“ ,https://blog.fiff.de/content/files/2024/04/2024_04_29_Stellungnahme-lavender.pdf, zuletzt abgerufen 26.06.2025.

[4] A Thousand Snipers in the Sky: The New War in Ukraine, in: https://www.nytimes.com/interactive/2025/03/03/world/europe/ukraine-russia-war-drones-deaths.html, zuletzt abgerufen 26.06.2025.

[5] https://www.imi-online.de/2025/05/16/drohnen-sie-kommen-in-schwaermen/, zuletzt abgerufen 26.06.2025.

[6] https://blog.fiff.de/content/files/2024/04/2024_04_29_Stellungnahme-lavender.pdf, zuletzt abgerufen 26.06.2025.

[7] Vgl. dazu Christoph Marischka, AI-based Targeting – The case of Gaza: https://www.imi-online.de/download/MeHuCo-Gaza-Paper-Editiert.pdf, zuletzt abgerufen 26.06.2025.

[8] Nach: https://blog.fiff.de/content/files/2024/04/2024_04_29_Stellungnahme-lavender.pdf, zuletzt abgerufen 26.06.2025.

[9] Norbert Schepers, Jagd auf Terroristen, in: https://zeitschrift-luxemburg.de/artikel/drohnenkriege/, zuletzt abgerufen 26.06.2025.

[10] Christoph Marischka, AI-based Targeting – The Case of Gaza, in: https://www.imi-online.de/download/MeHuCo-Gaza-Paper-Editiert.pdf, zuletzt abgerufen 26.06.2025.

[11]  Carl Schmitt, Theorie des Partisanen. Zwischenbemerkung zum Begriff des Politischen, Berlin 1963

[12] Paradigmatisch dafür seine Behauptung, dass Israel „Drecksarbeit für uns alle im Iran“ mache, und damit den völkerrechtswidrigen Angriff Israel legitimierte. Die Enthemmungen der politischen Klasse werden immer maßloser. Zur Äußerung von Merz: https://www.zdfheute.de/politik/g7-gipfel-merz-100.html

[13] Gemeint sind damit nicht rechtlich erklärte Ausnahmezustände, sondern vielmehr „soziale Tatsachen“. Ich meine, darunter gehören zunehmend auch Regierungspraxen, die sich auf vermeintliche rechtsjenseitige Rechte wie Verordnungen oder Einzelprivilegien beziehen. Es gibt eine zunehmende Leichtfüßigkeit von Regierenden, solche Formen zu nutzen (Erlasse, Nutzung von Richtlinienkompetenz, exzessive Verordnungspolitik etc.), auch wenn sie vorhersehbarer Weise häufig von Gerichtsentscheidungen wieder zurückgenommen werden müssen. Vgl. dazu: Andrea Kretschmann und Aldo Legnaro, Ausnahmezustände. Zur Soziologie einer Gesellschaftsverfassung, PROKLA. Heft 188, 47. Jg. 2017, Nr. 3, 471– 486.