About this episode
Ein aktueller Konflikt zwischen dem US-Verteidigungsministerium und dem KI-Unternehmen Anthropic zeigt erstmals offen, wie eng Technologieunternehmen und militärische Institutionen inzwischen miteinander verbunden sind und wie umstritten diese Kooperationen geworden sind. Von Günther Burbach.Dieser Beitrag ist auch als Audio-Podcast verfügbar.Die militärische Nutzung Künstlicher Intelligenz entwickelt sich seit einigen Jahren zu einem zentralen strategischen Thema der internationalen Sicherheitspolitik. Während in der öffentlichen Debatte häufig über zivile Anwendungen von KI gesprochen wird, etwa über Sprachmodelle, automatisierte Bilderkennung oder digitale Assistenzsysteme, hat sich im Hintergrund ein anderes Feld rasch ausgeweitet: die Integration von KI-Technologie in militärische Analyse- und Entscheidungsprozesse.Der Streit zwischen US-Verteidigungsministerium und dem KI-Unternehmen Anthropic entzündete sich an der Frage, unter welchen Bedingungen Künstliche Intelligenz im militärischen Bereich eingesetzt werden darf. Anthropic gehört zu den Unternehmen, die in den vergangenen Jahren große Sprachmodelle und KI-Systeme entwickelt haben, die enorme Datenmengen analysieren können. Solche Systeme werden nicht nur in der Wirtschaft genutzt, sondern sind auch für staatliche Behörden interessant, insbesondere für Sicherheits- und Verteidigungsinstitutionen, die täglich riesige Datenströme auswerten müssen. Nach Berichten mehrerer Medien war Anthropic an Projekten beteiligt, die KI-Technologie für staatliche Analyse- und Auswertungsprozesse nutzten. Dabei ging es unter anderem um die Verarbeitung komplexer Datenbestände aus unterschiedlichen Quellen, etwa aus Satellitenbildern, Sensorinformationen oder militärischen Lageberichten. Genau solche Aufgaben stehen im Mittelpunkt der digitalen Transformation moderner Streitkräfte. Militärische Planer sehen in KI-Systemen ein Werkzeug, mit dem sich große Informationsmengen schneller und effizienter analysieren lassen.Staatliche Überwachung und Entwicklung autonomer WaffensystemeDoch im Zuge dieser Zusammenarbeit kam es zu einem Konflikt über die Grenzen des Einsatzes. Anthropic erklärte, dass seine Technologie nicht für bestimmte Anwendungen verwendet werden solle. Dazu gehörten nach Angaben des Unternehmens insbesondere zwei Bereiche: der Einsatz von KI für umfassende staatliche Überwachung sowie die Entwicklung autonomer Waffensysteme, bei denen Maschinen ohne menschliche Kontrolle über tödliche Gewalt entscheiden könnten. Solche Einschränkungen gehören zu den sogenannten Nutzungsrichtlinien vieler KI-Unternehmen, die versuchen, bestimmte Anwendungen ihrer Systeme auszuschließen. Das US-Verteidigungsministerium akzeptierte diese Einschränkungen jedoch offenbar nicht ohne Weiteres. Aus Sicht des Pentagon stellt sich die Frage anders: Wenn eine Technologie für militärische