Intelligent töten?
Der mögliche Einsatz künstlicher Intelligenz zur Identifikation von Zielen in Gaza wird derzeit kontrovers diskutiert. Klar ist, dass ähnliche Systeme immer häufiger Teil militärischer Praxis sind. Wie ist diese Entwicklung zu bewerten?
Technologische Entwicklungen haben Kriege und Kriegsführung schon immer geprägt und verändert, von der Erfindung des Schießpulvers bis zur Atombombe. Bereits seit einigen Jahren werden sehr unterschiedliche KI-Systeme auch in militärischen Kontexten angewendet – mit zum Teil unüberschaubaren Folgen: Mithilfe von KI-gestützten Waffensystemen könnte sich zum Beispiel die Geschwindigkeit von Angriffen und Kriegsentscheidungen exponentiell beschleunigen. Aber auch neue Fragen drängen sich auf: Werden in Zukunft immer mehr Maschinen und weniger Menschen kämpfen, und befinden wir uns in einem globalen Wettrennen um die Vorherrschaft im KI-Zeitalter?
Der Historiker Melvin Kranzberg stellte bereits 1985 fest: „Technologie ist weder gut noch schlecht; noch ist sie neutral.“ Diese Aussage verweist auf zwei wichtige Faktoren im Verhältnis von Technologie und Gesellschaft: Sie lehnt technologischen Determinismus – die reduktionistische Annahme, dass Technologie zwangsläufig zu vorhersehbaren und unabdingbaren gesellschaftlichen Veränderungen führt – ab, besteht aber gleichzeitig darauf, dass Technologien weitreichende und sehr unterschiedliche Auswirkungen und Konsequenzen haben können. Technologie ist zwar nicht natürlicherweise gut oder schlecht, sie ist aber gleichzeitig immer mehr als nur ein Werkzeug. In der Diskussion um den Einsatz von KI im Krieg sind deshalb zwei Aspekte wichtig. Eine aufgeklärte Debatte darüber, was KI-Technologien tatsächlich leisten können und wo ihre natürlichen Grenzen liegen. Sowie eine gesellschaftliche Auseinandersetzung über die Zwecke, Rahmenbedingungen und Sicherheitsvorkehrungen, mit denen KI eingesetzt werden soll – oder wofür nicht.
In den letzten zehn Jahren hat die KI-Forschung beeindruckende Fortschritte gemacht. Für eng definierte Aufgabenstellungen, wie zum Beispiel die Erkennung von Objekten, schneidet KI genauso gut, wenn nicht sogar besser als menschliche Probanden ab. Fortschritt in der Lösung eng gefasster Problemstellungen heißt jedoch nicht zwangsläufig, dass KI auch automatisch andere oder gar jegliche Aufgaben und Probleme (zuverlässig) lösen kann.
Anders gesagt: Nur weil KI-Modelle in der Lage sind, plausibel klingende Texte zu produzieren, heißt es noch lange nicht, dass wir in naher Zukunft – oder vielleicht jemals – eine künstliche Intelligenz schaffen können, die der des Menschen gleicht, die also eigenständig lernen und ihren Verstand auf viele unterschiedliche Aufgaben anwenden kann. Entgegen vieler Einschätzungen befinden wir uns deshalb auch nicht in einem neuen, technologischen Kalten Krieg, der nur von denjenigen gewonnen werden kann, die am meisten investieren und am wenigsten regulieren. Es kommt vor allem darauf an, wofür wir uns entscheiden, KI anzuwenden – um Kriege zu führen oder Menschen und ihre Rechte zu schützen. Auch Menschenrechtsorganisationen wie Amnesty International oder Human Rights Watch nutzen zunehmend KI, öffentlich zugängliche Daten, Satellitenbilder und Geodatenanalyse, um Menschenrechtsverletzungen und Kriegsverbrechen zu dokumentieren. Es liegt an uns, die Zukunft zu gestalten.
– Frederike Kaltheuner
Alles im Blick
Das von Peter Thiel und Alex Karp gegründete und geleitete US-amerikanische Unternehmen Palantir ist weltweit bekannt für seine Analysesoftwares zur Überwachung, Auswertung und Regulierung von komplexen Situationen etwa im Krieg oder nach einer Umweltkatastrophe. Mit der Software MetaConstellation stellt die Firma auch ein Produkt zur Verfügung, das nicht nur, aber auch im Krieg benutzt werden kann. Aufbauend auf der Analyse von Satelliten- und Drohnenbildern generiert die KI-gesteuerte Software in Echtzeit komplexe Lagebilder von Frontabschnitten, findet und erkennt feindliche Truppen und errechnet mögliche Taktiken für ein weiteres Vorgehen. Mit einem Kommandomodul können dann konkrete Handlungen durchgeführt werden – zum Beispiel der Beschuss einer feindlichen Stellung. In einem Pfadsystem leitet die Software von Entscheidung zu Entscheidung. Die Software handelt zwar nicht von allein und bedarf immer der Entscheidung eines Menschen. Doch wie frei lässt sich entscheiden, wenn die KI direkt auch vermeintlich optimale Handlungswege suggeriert? Wie selbstbestimmt ist ein menschliches Urteil noch, wenn es sich auf schier unüberblickbare Mengen an Daten stützen soll?
– Beschreibung von Friedrich Weißbach
Der Mythos der Autonomie
Regierungen setzen zunehmend eine anspruchsvolle Datenanalyse im Krieg ein – das ist weder verwunderlich noch grundsätzlich problematisch. Komplexer wird es, wenn undurchsichtige, kommerzielle Software dazu eingesetzt wird, um kritische Entscheidungen zu unterstützen oder möglicherweise gar zu treffen. Denn ob Maschinen Entscheidungen treffen oder nur empfehlen, ist in der Praxis oft schwierig auseinanderzuhalten. Die empirische Forschung zeigt, dass Menschen dazu neigen, Empfehlungen von Maschinen fast blind zu vertrauen. Das hat verheerende Folgen, zum Beispiel, wenn der Autopilot eines Flugzeugs falsche Informationen liefert. In der Forschung nennt sich das Phänomen „automation bias“ oder „automation complacency“. Künstliche Intelligenz stellt in diesem Kontext eine besonders komplexe Herausforderung dar. Auch weil die Fähigkeiten von KI in den öffentlichen Debatten so sehr überhöht werden, ist es für Laien nicht immer einfach, sowohl die Stärken als auch die Grenzen der Technologie richtig einzuschätzen. Eine Studie, die dieses Jahr veröffentlicht wurde, zeigte zum Beispiel, dass Menschen, die an Gott glauben, Empfehlungen von KI-Systemen eher akzeptieren. Dazu kommt, dass die Logik hinter Vorschlägen, die von KI-Systemen generiert werden, oftmals selbst für technische Experten nicht vollends nachvollziehbar ist. Das macht es besonders schwierig, falsche oder voreingenommene Empfehlungen als solche zu erkennen. Dass es auch anders geht, zeigt der Berliner Künstler Adam Harvey. Er hat ein Open-Source-KI-System entwickelt, das völkerrechtlich illegale Waffen in Videos und Fotos identifizieren kann.
– Kommentar Frederike Kaltheuner
Kampf der Drohnen
Drohnen sind längst ein wichtiger Faktor in der modernen Kriegsführung geworden. Bislang werden sie noch überwiegend von Menschen gesteuert. In Zukunft übernimmt das die KI. Schon heute finden Drohnen eigenständig Ziele und zerstören sie. So die IAI-Harpy, die von den USA für die eigenständige Detektion und Zerstörung von Radaranlagen entwickelt wurde. Einmal abgeschossen, bleibt die Drohne kurz in der Luft, analysiert die vorhandenen Radarwellen in ihrem Umfeld und steuert wie ein Magnet auf die nächstliegende, zu eliminierende Anlage. Oder die türkische Kargu-2-Drohne. Sie fliegt eigenständig über ein Gelände, um Menschen ausfindig zu machen. Mithilfe einer Gesichtserkennungssoftware kann sie sogar gezielt nach einzelnen Individuen suchen und diese eliminieren. 2020 wurden Vorwürfe gegen die Türkei laut: Sie soll zum ersten Mal den „human in the loop“ ausgeschaltet haben und die Maschine selbstständig für die Bekämpfung von Geflüchteten an die syrische Grenze geschickt haben. Wer trägt die Verantwortung für die Handlung der Drohnen, besonders dann, wenn die Maschine das falsche Ziel angreift?
– Beschreibung von Friedrich Weißbach
Der Mythos der Unvermeidlichkeit
Wird KI in Zukunft zwangsläufig die Steuerung von Drohnen übernehmen? Wenn es um neue Technologien geht, neigen wir oft dazu, alles, was technisch machbar und möglich ist, nicht nur als fortschrittlich, sondern auch als unvermeidlich zu sehen.
Doch das muss nicht so sein. Es liegt an uns, die technologische Zukunft aktiv zu gestalten. Dass dies möglich ist, zeigt die Geschichte: Seit 1925 wird die Verwendung von Giftgasen und bakteriologischen Waffen geächtet. Mehr als drei Viertel aller Staaten sind einem Übereinkommen über das Verbot des Einsatzes, der Lagerung, der Herstellung und der Weitergabe von Antipersonenminen und deren Vernichtung beigetreten. Erste Schritte für eine strikte Regulierung von KI wurden bereits gemacht. Die Europäische KI-Verordnung unterscheidet zum Beispiel zwischen minimalen, hohen und inakzeptablen Risiken. Letztere sollen grundsätzlich verboten werden, weil sie eine Gefahr für die Sicherheit und Grundrechte von Menschen darstellen. Darunter gehört unter anderem auch die Gesichtserkennung im öffentlichen Raum – ein schwerer Eingriff in die Grundrechte, die historisch marginalisierte Menschen besonders betrifft und in Gefahr bringt. Für die Nutzung von (teil)autonomen Waffen, wozu auch Drohnen gehören, die ihre Ziele selbstständig suchen, auswählen und bekämpfen können, gibt es jedoch bisher noch keine verbindlichen internationalen Regeln. Seit 2013 setzt sich die NGO Campaign to Stop Killer Robots dafür ein, dass Regierungen und die Vereinten Nationen die Entwicklung von tödlichen autonomen Waffensystemen verbieten. Dafür wurde die Koalition 2021 für den Friedensnobelpreis nominiert. Das überzeugendste Argument für ein Verbot ist, dass autonome Waffen das Verhältnis zwischen Mensch und Maschine ganz grundsätzlich verändern, indem sie Maschinen die Macht über Leben und Tod anvertrauen und Menschenleben auf Datenpunkte reduzieren. Denn Maschinen machen Fehler und ihre Fähigkeiten haben klare Grenzen.
Wenn autonome Waffen Fehler machen, sind diese jedoch unwiderruflich. Deshalb sollte selbst ohne ein Verbot die Nutzung von (teil)autonomen Waffen streng reguliert werden, um Fragen zu klären, wie etwa: wer die Verantwortung trägt, wenn falsche Ziele angegriffen werden, oder welche Standards für die Entwicklung und Nutzung solcher Waffen gelten sollten.
– Kommentar Frederike Kaltheuner
Ein Mensch aus Stahl
Er rennt, springt, greift und kann sogar einen Salto machen. Der von dem US-amerikanischen Unternehmen Boston Dynamics entwickelte 1,75 Meter große und 81 Kilogramm schwere Atlas-Roboter ist einer der wohl beeindruckendsten humanoiden Roboter. Gebaut wurde er, um Menschen in Extremsituationen wie einer Überflutung oder einem Erdbeben zu helfen. Aber auch auf dem Bau kann er unterstützend zur Hand gehen und schwere Dinge auf unwegsamem Terrain von A nach B tragen. Auch wenn das noch nicht geschehen ist, ist es nur eine Frage der Zeit, bis er bewaffnet wird. Bei einem Roboterhund des Unternehmens Ghost Robotics ist das bereits geschehen. Mit einem Scharfschützengewehr auf dem Rücken kann er auch in Extremsituationen die Ruhe bewahren und sein Ziel noch aus 1200 Meter sicher treffen. Befürworter unterstreichen, dass solche Roboter das Völkerrecht besser einhalten als die meisten Menschen – schließlich sind ihnen Gefühle von Panik, Hass und Rache, die Soldaten überkommen können, fremd. Doch fehlt ihnen das empathische Feingefühl, das komplexe menschliche Interaktionen erfordern.
– Beschreibung von Friedrich Weißbach
Der Mythos der kalten Rationalität
Die Idee, dass KI rationaler, gerechter und emotionsloser sei als Menschen, begegnet uns überall dort, wo Maschinen menschliche Entscheidungen in besonders komplizierten und risikobehafteten Kontexten ersetzen sollen: im Recruiting, in der Polizeiarbeit und nun auch im Krieg. Die Idee ist verführerisch, denn menschliche Entscheidungen sind oftmals alles andere als gerecht und bedacht. Manager stellen besonders gerne Menschen ein, die ihnen ähnlich sind. Polizeiliche Routinen und Praktiken (re)produzieren in vielen Ländern rassistisch geprägte Gesellschaftsstrukturen. Und Staaten brechen immer wieder das Kriegs- und Völkerrecht. Es scheint daher naheliegend, besonders kritische Entscheidungen an Maschinen abzugeben. Die Hoffnung ist, dass Maschinen rationaler, vorhersehbarer und objektiver sind als Menschen.
In der Praxis erweist sich die scheinbar kalte Rationalität der Maschinen jedoch weder als objektiv noch als zwingend vorhersehbar. Mit welchen Daten und Handlungsanweisungen Systeme trainiert, gefüttert und beauftragt werden, hat einen großen Einfluss auf die Qualität der Entscheidungen, die letztendlich getroffen werden. Beispielhaft zu sehen ist diese Entwicklung an der neuen Praxis, Videointerviews im Niedriglohnsektor, wo die Jobfluktuation hoch ist und Fehler wenig kosten, von KI automatisch analysieren zu lassen. Für die Arbeitgeber erweisen sich diese neuen Formen der Automatisierung von Prozessen als Möglichkeit, Kosten zu sparen und Verantwortung abzuwälzen. Für die Arbeitnehmer hingegen bedeutet es eine neue Form der Diskriminierung, die für Betroffene ganz besonders schwierig zu dokumentieren und anzuprangern ist.
In KI-Systeme sind somit unmittelbar sowohl subjektive als auch gesellschaftliche Züge eingeschrieben. So können strukturelle Ungleichheiten und Ungerechtigkeiten reproduziert werden. In letzter Konsequenz heißt das: Staaten, die das Völkerrecht missachten möchten, können dies ebenso gut mithilfe von KI tun. Und auch Staaten, die dies nicht beabsichtigen, können trotzdem fahrlässig und verantwortungslos KI einsetzen.
– Kommentar Frederike Kaltheuner •
Frederike Kaltheuner arbeitet zu Digitalpolitik, Menschenrechten und neuen Technologien. Sie leitete unter anderem die weltweite Abteilung für Technologie und Menschenrechte bei Human Rights Watch. Bücher zum Thema: „Fake AI“ (Meatspace, 2021) und „Daten-Gerechtigkeit“ (mit Nele Obermüller, Nicolai, 2018)
Kommentare
KI kann annehmbar die Entwicklung der Biosphäre beschleunigen. Mehr Wohlstand, mehr Umweltschutz, mehr unerkannte Umweltzerstörung. Mir reicht in vielerlei Hinsicht die jetzige Geschwindigkeit. Man stelle sich die zeitlichen Verhältnisse von Erd-, Biosphären- und Menschheitsgeschichte vor.
Vernünftig scheint mir weniger allseitige Beschleunigung und mehr Horizonterweiterung. Gut wäre, wenn in der Endphase des Lebens der Geist sicher konserviert werden könnte, damit in egal wie vielen Jahren Technologie zur Wiedererweckung und dann zum nur durch die Implosion des Universums begrenzten Leben erfunden sein werden.
Ich danke für die Texte und die Möglichkeit, zu kommentieren.