Intelligent töten?
Der mögliche Einsatz künstlicher Intelligenz zur Identifikation von Zielen in Gaza wird derzeit kontrovers diskutiert. Klar ist, dass ähnliche Systeme immer häufiger Teil militärischer Praxis sind. Wie ist diese Entwicklung zu bewerten?
Technologische Entwicklungen haben Kriege und Kriegsführung schon immer geprägt und verändert, von der Erfindung des Schießpulvers bis zur Atombombe. Bereits seit einigen Jahren werden sehr unterschiedliche KI-Systeme auch in militärischen Kontexten angewendet – mit zum Teil unüberschaubaren Folgen: Mithilfe von KI-gestützten Waffensystemen könnte sich zum Beispiel die Geschwindigkeit von Angriffen und Kriegsentscheidungen exponentiell beschleunigen. Aber auch neue Fragen drängen sich auf: Werden in Zukunft immer mehr Maschinen und weniger Menschen kämpfen, und befinden wir uns in einem globalen Wettrennen um die Vorherrschaft im KI-Zeitalter?
Der Historiker Melvin Kranzberg stellte bereits 1985 fest: „Technologie ist weder gut noch schlecht; noch ist sie neutral.“ Diese Aussage verweist auf zwei wichtige Faktoren im Verhältnis von Technologie und Gesellschaft: Sie lehnt technologischen Determinismus – die reduktionistische Annahme, dass Technologie zwangsläufig zu vorhersehbaren und unabdingbaren gesellschaftlichen Veränderungen führt – ab, besteht aber gleichzeitig darauf, dass Technologien weitreichende und sehr unterschiedliche Auswirkungen und Konsequenzen haben können. Technologie ist zwar nicht natürlicherweise gut oder schlecht, sie ist aber gleichzeitig immer mehr als nur ein Werkzeug. In der Diskussion um den Einsatz von KI im Krieg sind deshalb zwei Aspekte wichtig. Eine aufgeklärte Debatte darüber, was KI-Technologien tatsächlich leisten können und wo ihre natürlichen Grenzen liegen. Sowie eine gesellschaftliche Auseinandersetzung über die Zwecke, Rahmenbedingungen und Sicherheitsvorkehrungen, mit denen KI eingesetzt werden soll – oder wofür nicht.
In den letzten zehn Jahren hat die KI-Forschung beeindruckende Fortschritte gemacht. Für eng definierte Aufgabenstellungen, wie zum Beispiel die Erkennung von Objekten, schneidet KI genauso gut, wenn nicht sogar besser als menschliche Probanden ab. Fortschritt in der Lösung eng gefasster Problemstellungen heißt jedoch nicht zwangsläufig, dass KI auch automatisch andere oder gar jegliche Aufgaben und Probleme (zuverlässig) lösen kann.
Anders gesagt: Nur weil KI-Modelle in der Lage sind, plausibel klingende Texte zu produzieren, heißt es noch lange nicht, dass wir in naher Zukunft – oder vielleicht jemals – eine künstliche Intelligenz schaffen können, die der des Menschen gleicht, die also eigenständig lernen und ihren Verstand auf viele unterschiedliche Aufgaben anwenden kann. Entgegen vieler Einschätzungen befinden wir uns deshalb auch nicht in einem neuen, technologischen Kalten Krieg, der nur von denjenigen gewonnen werden kann, die am meisten investieren und am wenigsten regulieren. Es kommt vor allem darauf an, wofür wir uns entscheiden, KI anzuwenden – um Kriege zu führen oder Menschen und ihre Rechte zu schützen. Auch Menschenrechtsorganisationen wie Amnesty International oder Human Rights Watch nutzen zunehmend KI, öffentlich zugängliche Daten, Satellitenbilder und Geodatenanalyse, um Menschenrechtsverletzungen und Kriegsverbrechen zu dokumentieren. Es liegt an uns, die Zukunft zu gestalten.
– Frederike Kaltheuner
Alles im Blick
Das von Peter Thiel und Alex Karp gegründete und geleitete US-amerikanische Unternehmen Palantir ist weltweit bekannt für seine Analysesoftwares zur Überwachung, Auswertung und Regulierung von komplexen Situationen etwa im Krieg oder nach einer Umweltkatastrophe. Mit der Software MetaConstellation stellt die Firma auch ein Produkt zur Verfügung, das nicht nur, aber auch im Krieg benutzt werden kann. Aufbauend auf der Analyse von Satelliten- und Drohnenbildern generiert die KI-gesteuerte Software in Echtzeit komplexe Lagebilder von Frontabschnitten, findet und erkennt feindliche Truppen und errechnet mögliche Taktiken für ein weiteres Vorgehen. Mit einem Kommandomodul können dann konkrete Handlungen durchgeführt werden – zum Beispiel der Beschuss einer feindlichen Stellung. In einem Pfadsystem leitet die Software von Entscheidung zu Entscheidung. Die Software handelt zwar nicht von allein und bedarf immer der Entscheidung eines Menschen. Doch wie frei lässt sich entscheiden, wenn die KI direkt auch vermeintlich optimale Handlungswege suggeriert? Wie selbstbestimmt ist ein menschliches Urteil noch, wenn es sich auf schier unüberblickbare Mengen an Daten stützen soll?
– Beschreibung von Friedrich Weißbach
Der Mythos der Autonomie
Regierungen setzen zunehmend eine anspruchsvolle Datenanalyse im Krieg ein – das ist weder verwunderlich noch grundsätzlich problematisch. Komplexer wird es, wenn undurchsichtige, kommerzielle Software dazu eingesetzt wird, um kritische Entscheidungen zu unterstützen oder möglicherweise gar zu treffen. Denn ob Maschinen Entscheidungen treffen oder nur empfehlen, ist in der Praxis oft schwierig auseinanderzuhalten. Die empirische Forschung zeigt, dass Menschen dazu neigen, Empfehlungen von Maschinen fast blind zu vertrauen. Das hat verheerende Folgen, zum Beispiel, wenn der Autopilot eines Flugzeugs falsche Informationen liefert. In der Forschung nennt sich das Phänomen „automation bias“ oder „automation complacency“. Künstliche Intelligenz stellt in diesem Kontext eine besonders komplexe Herausforderung dar. Auch weil die Fähigkeiten von KI in den öffentlichen Debatten so sehr überhöht werden, ist es für Laien nicht immer einfach, sowohl die Stärken als auch die Grenzen der Technologie richtig einzuschätzen. Eine Studie, die dieses Jahr veröffentlicht wurde, zeigte zum Beispiel, dass Menschen, die an Gott glauben, Empfehlungen von KI-Systemen eher akzeptieren. Dazu kommt, dass die Logik hinter Vorschlägen, die von KI-Systemen generiert werden, oftmals selbst für technische Experten nicht vollends nachvollziehbar ist. Das macht es besonders schwierig, falsche oder voreingenommene Empfehlungen als solche zu erkennen. Dass es auch anders geht, zeigt der Berliner Künstler Adam Harvey. Er hat ein Open-Source-KI-System entwickelt, das völkerrechtlich illegale Waffen in Videos und Fotos identifizieren kann.
– Kommentar Frederike Kaltheuner
Kampf der Drohnen
Drohnen sind längst ein wichtiger Faktor in der modernen Kriegsführung geworden. Bislang werden sie noch überwiegend von Menschen gesteuert. In Zukunft übernimmt das die KI. Schon heute finden Drohnen eigenständig Ziele und zerstören sie. So die IAI-Harpy, die von den USA für die eigenständige Detektion und Zerstörung von Radaranlagen entwickelt wurde. Einmal abgeschossen, bleibt die Drohne kurz in der Luft, analysiert die vorhandenen Radarwellen in ihrem Umfeld und steuert wie ein Magnet auf die nächstliegende, zu eliminierende Anlage. Oder die türkische Kargu-2-Drohne. Sie fliegt eigenständig über ein Gelände, um Menschen ausfindig zu machen. Mithilfe einer Gesichtserkennungssoftware kann sie sogar gezielt nach einzelnen Individuen suchen und diese eliminieren. 2020 wurden Vorwürfe gegen die Türkei laut: Sie soll zum ersten Mal den „human in the loop“ ausgeschaltet haben und die Maschine selbstständig für die Bekämpfung von Geflüchteten an die syrische Grenze geschickt haben. Wer trägt die Verantwortung für die Handlung der Drohnen, besonders dann, wenn die Maschine das falsche Ziel angreift?
– Beschreibung von Friedrich Weißbach
Der Mythos der Unvermeidlichkeit
Wird KI in Zukunft zwangsläufig die Steuerung von Drohnen übernehmen? Wenn es um neue Technologien geht, neigen wir oft dazu, alles, was technisch machbar und möglich ist, nicht nur als fortschrittlich, sondern auch als unvermeidlich zu sehen.
Doch das muss nicht so sein. Es liegt an uns, die technologische Zukunft aktiv zu gestalten. Dass dies möglich ist, zeigt die Geschichte: Seit 1925 wird die Verwendung von Giftgasen und bakteriologischen Waffen geächtet. Mehr als drei Viertel aller Staaten sind einem Übereinkommen über das Verbot des Einsatzes, der Lagerung, der Herstellung und der Weitergabe von Antipersonenminen und deren Vernichtung beigetreten. Erste Schritte für eine strikte Regulierung von KI wurden bereits gemacht. Die Europäische KI-Verordnung unterscheidet zum Beispiel zwischen minimalen, hohen und inakzeptablen Risiken. Letztere sollen grundsätzlich verboten werden, weil sie eine Gefahr für die Sicherheit und Grundrechte von Menschen darstellen. Darunter gehört unter anderem auch die Gesichtserkennung im öffentlichen Raum – ein schwerer Eingriff in die Grundrechte, die historisch marginalisierte Menschen besonders betrifft und in Gefahr bringt. Für die Nutzung von (teil)autonomen Waffen, wozu auch Drohnen gehören, die ihre Ziele selbstständig suchen, auswählen und bekämpfen können, gibt es jedoch bisher noch keine verbindlichen internationalen Regeln. Seit 2013 setzt sich die NGO Campaign to Stop Killer Robots dafür ein, dass Regierungen und die Vereinten Nationen die Entwicklung von tödlichen autonomen Waffensystemen verbieten. Dafür wurde die Koalition 2021 für den Friedensnobelpreis nominiert. Das überzeugendste Argument für ein Verbot ist, dass autonome Waffen das Verhältnis zwischen Mensch und Maschine ganz grundsätzlich verändern, indem sie Maschinen die Macht über Leben und Tod anvertrauen und Menschenleben auf Datenpunkte reduzieren. Denn Maschinen machen Fehler und ihre Fähigkeiten haben klare Grenzen.
Wenn autonome Waffen Fehler machen, sind diese jedoch unwiderruflich. Deshalb sollte selbst ohne ein Verbot die Nutzung von (teil)autonomen Waffen streng reguliert werden, um Fragen zu klären, wie etwa: wer die Verantwortung trägt, wenn falsche Ziele angegriffen werden, oder welche Standards für die Entwicklung und Nutzung solcher Waffen gelten sollten.
– Kommentar Frederike Kaltheuner
Ein Mensch aus Stahl
Er rennt, springt, greift und kann sogar einen Salto machen. Der von dem US-amerikanischen Unternehmen Boston Dynamics entwickelte 1,75 Meter große und 81 Kilogramm schwere Atlas-Roboter ist einer der wohl beeindruckendsten humanoiden Roboter. Gebaut wurde er, um Menschen in Extremsituationen wie einer Überflutung oder einem Erdbeben zu helfen. Aber auch auf dem Bau kann er unterstützend zur Hand gehen und schwere Dinge auf unwegsamem Terrain von A nach B tragen. Auch wenn das noch nicht geschehen ist, ist es nur eine Frage der Zeit, bis er bewaffnet wird. Bei einem Roboterhund des Unternehmens Ghost Robotics ist das bereits geschehen. Mit einem Scharfschützengewehr auf dem Rücken kann er auch in Extremsituationen die Ruhe bewahren und sein Ziel noch aus 1200 Meter sicher treffen. Befürworter unterstreichen, dass solche Roboter das Völkerrecht besser einhalten als die meisten Menschen – schließlich sind ihnen Gefühle von Panik, Hass und Rache, die Soldaten überkommen können, fremd. Doch fehlt ihnen das empathische Feingefühl, das komplexe menschliche Interaktionen erfordern.
– Beschreibung von Friedrich Weißbach
Der Mythos der kalten Rationalität
Die Idee, dass KI rationaler, gerechter und emotionsloser sei als Menschen, begegnet uns überall dort, wo Maschinen menschliche Entscheidungen in besonders komplizierten und risikobehafteten Kontexten ersetzen sollen: im Recruiting, in der Polizeiarbeit und nun auch im Krieg. Die Idee ist verführerisch, denn menschliche Entscheidungen sind oftmals alles andere als gerecht und bedacht. Manager stellen besonders gerne Menschen ein, die ihnen ähnlich sind. Polizeiliche Routinen und Praktiken (re)produzieren in vielen Ländern rassistisch geprägte Gesellschaftsstrukturen. Und Staaten brechen immer wieder das Kriegs- und Völkerrecht. Es scheint daher naheliegend, besonders kritische Entscheidungen an Maschinen abzugeben. Die Hoffnung ist, dass Maschinen rationaler, vorhersehbarer und objektiver sind als Menschen.
In der Praxis erweist sich die scheinbar kalte Rationalität der Maschinen jedoch weder als objektiv noch als zwingend vorhersehbar. Mit welchen Daten und Handlungsanweisungen Systeme trainiert, gefüttert und beauftragt werden, hat einen großen Einfluss auf die Qualität der Entscheidungen, die letztendlich getroffen werden. Beispielhaft zu sehen ist diese Entwicklung an der neuen Praxis, Videointerviews im Niedriglohnsektor, wo die Jobfluktuation hoch ist und Fehler wenig kosten, von KI automatisch analysieren zu lassen. Für die Arbeitgeber erweisen sich diese neuen Formen der Automatisierung von Prozessen als Möglichkeit, Kosten zu sparen und Verantwortung abzuwälzen. Für die Arbeitnehmer hingegen bedeutet es eine neue Form der Diskriminierung, die für Betroffene ganz besonders schwierig zu dokumentieren und anzuprangern ist.
In KI-Systeme sind somit unmittelbar sowohl subjektive als auch gesellschaftliche Züge eingeschrieben. So können strukturelle Ungleichheiten und Ungerechtigkeiten reproduziert werden. In letzter Konsequenz heißt das: Staaten, die das Völkerrecht missachten möchten, können dies ebenso gut mithilfe von KI tun. Und auch Staaten, die dies nicht beabsichtigen, können trotzdem fahrlässig und verantwortungslos KI einsetzen.
– Kommentar Frederike Kaltheuner •
Frederike Kaltheuner arbeitet zu Digitalpolitik, Menschenrechten und neuen Technologien. Sie leitete unter anderem die weltweite Abteilung für Technologie und Menschenrechte bei Human Rights Watch. Bücher zum Thema: „Fake AI“ (Meatspace, 2021) und „Daten-Gerechtigkeit“ (mit Nele Obermüller, Nicolai, 2018)
Weitere Artikel
Robert Pfaller und Paula-Irene Villa im Dialog: Wo liegt die Grenze des Sagbaren?
Kaum eine Frage wird derzeit kontroverser diskutiert: Ist rücksichtsvolles Sprechen Ausdruck des sozialen Fortschritts? Oder blockieren Sensibilitäten die demokratische Debattenkultur? Der Philosoph Robert Pfaller und die Soziologin Paula-Irene Villa über Verletzlichkeit, Political Correctness und die Macht der Worte.

Kriegsfront und Kinderwunsch
Viele Soldaten weltweit lassen ihr Sperma einfrieren, das immer öfter auch nach dem Tod des Spenders zur Zeugung genutzt wird. Doch wie ist diese Praxis ethisch zu bewerten, die menschlich so verständlich scheint?

Steffen Mau: „Wut kann Impulse setzen, aber keine Probleme bearbeiten“
Fragen der Identitätspolitik werden oft so kontrovers diskutiert, dass die Grautöne verschwinden. Der Soziologe Steffen Mau wirft im Gespräch einen differenzierten Blick auf die Debatte und erklärt, warum Sozial- und Identitätspolitik keine Gegensätze sind, er seinen Studierenden dennoch den „S-Bahn-Ring-Test“ empfiehlt.

Robin Celikates: „Wir sind Zeugen eines ideologischen Kampfes, der mit allen Mitteln ausgetragen wird“
Die Critical Race Theory sorgt derzeit für kontroverse Debatten: notwendiger Weckruf an eine tief rassistische Gesellschaft oder Angriff auf demokratische Grundwerte? Der Philosoph Robin Celikates gibt im Interview einen Überblick über eine der wichtigsten Theorien der Gegenwart.

Eine Frage der Klasse
Rosa Luxemburg widmete ihr Leben der Verwirklichung des sozialistischen Ideals. Wie niemand sonst verkörperte sie tatkräftige Intelligenz und eine „Philosophie der Praxis“ – und wenn sie die Meinung ihrer Genossen nicht teilte, verstand sie es immer, sich Gehör zu verschaffen.

Abweichung wagen
Und, wie lauten Ihre Neujahrsvorsätze? Weniger Alkohol trinken, mit dem Rauchen aufhören? Mehr Sport treiben, häufiger Freunde treffen? Den Fernseher abschaffen, alle elektronischen Geräte nach Feierabend ausschalten, um wieder mehr Bücher zu lesen? Vielleicht möchten Sie auch auf Verpackungen verzichten, um Plastik zu sparen. Oder Ihr Auto häufiger stehen lassen? Leer liegt das neue Jahr vor uns. Und wie verlockend ist der Gedanke, sich in diese Leere hinein anders, gar ganz neu zu entwerfen! Schlechte Angewohnheiten und alte Ängste abzulegen, um sich in ganz neue Gefilde vorzuwagen. Gesünder zu leben. Tiefer. Selbstbestimmter.

Der Mensch im Zeitalter der künstlichen Intelligenz
Der Fortschritt auf dem Gebiet der KI erobert immer mehr Bereiche des menschlichen Lebens. Auf der Phil.COLOGNE loten Daniel Kehlmann und Markus Gabriel diese Entwicklung aus: Was lässt sich mit Hegel über die Denkfähigkeit von KI sagen? Ist ChatGPT in der Lage zu verstehen? Und: Kann KI uns möglicherweise Wesentliches lehren – nämlich Nichtmenschliches mit Respekt zu behandeln?

Die neue Ausgabe: Macht künstliche Intelligenz uns freier?
Unter Hochdruck wird daran gearbeitet, Maschinen das Denken beizubringen. Doch womit haben wir es tatsächlich zu tun, wenn wir von „künstlicher Intelligenz“ sprechen? Wie transformiert diese Technologie unser Begehren, die Arbeitswelt, den Krieg? Wo sind Gefahren zu bannen, wo Freiheiten zu entdecken?
Hier geht's zur umfangreichen Heftvorschau!

Kommentare
KI kann annehmbar die Entwicklung der Biosphäre beschleunigen. Mehr Wohlstand, mehr Umweltschutz, mehr unerkannte Umweltzerstörung. Mir reicht in vielerlei Hinsicht die jetzige Geschwindigkeit. Man stelle sich die zeitlichen Verhältnisse von Erd-, Biosphären- und Menschheitsgeschichte vor.
Vernünftig scheint mir weniger allseitige Beschleunigung und mehr Horizonterweiterung. Gut wäre, wenn in der Endphase des Lebens der Geist sicher konserviert werden könnte, damit in egal wie vielen Jahren Technologie zur Wiedererweckung und dann zum nur durch die Implosion des Universums begrenzten Leben erfunden sein werden.
Ich danke für die Texte und die Möglichkeit, zu kommentieren.