Die KI
Von Will Knight
Eine Flotte von Roboterschiffen schaukelt sanft im warmen Wasser des Persischen Golfs, irgendwo zwischen Bahrain und Katar, vielleicht 100 Meilen vor der Küste Irans. Ich befinde mich auf dem nahegelegenen Deck eines Schnellboots der US-Küstenwache und blinzele auf die Backbordseite. An diesem Morgen Anfang Dezember 2022 ist der Horizont übersät mit Öltankern und Frachtschiffen sowie winzigen Fischerdhaus, die alle in der Hitze schimmern. Während das Schnellboot um die Roboterflotte flitzt, sehne ich mich nach einem Sonnenschirm oder sogar nach einer Wolke.
Die Roboter teilen weder mein erbärmliches menschliches Bedürfnis nach Schatten, noch benötigen sie irgendwelche anderen biologischen Annehmlichkeiten. Dies zeigt sich in ihrem Design. Einige ähneln typischen Patrouillenbooten wie dem, auf dem ich mich befinde, aber die meisten sind kleiner, schlanker und liegen tiefer im Wasser. Eines sieht aus wie ein solarbetriebenes Kajak. Ein anderes sieht aus wie ein Surfbrett mit einem Metallsegel. Noch ein anderes erinnert mich an ein Google-Street-View-Auto auf Pontons.
Diese Maschinen haben sich hier zu einer Übung der Task Force 59, einer Gruppe innerhalb der Fünften Flotte der US-Marine, versammelt. Der Schwerpunkt liegt auf Robotik und künstlicher Intelligenz, zwei sich schnell entwickelnden Technologien, die die Zukunft des Krieges prägen. Die Mission der Task Force 59 besteht darin, sie schnell in Marineoperationen zu integrieren, indem sie die neueste Standardtechnologie von privaten Auftragnehmern beschafft und die Teile zu einem zusammenhängenden Ganzen zusammenfügt. Bei der Übung im Golf kamen mehr als ein Dutzend unbemannte Plattformen zusammen – Überwasserschiffe, Tauchboote und Luftdrohnen. Sie sollen die verteilten Augen und Ohren der Task Force 59 sein: Sie werden die Meeresoberfläche mit Kameras und Radar beobachten, mit Hydrophonen unter Wasser lauschen und die gesammelten Daten durch Mustervergleichsalgorithmen verarbeiten, die die Öltanker von den Schmugglern unterscheiden.
Ein Mitmensch auf dem Schnellboot macht mich auf eines der Schiffe im Surfbrett-Stil aufmerksam. Es klappt abrupt sein Segel nach unten, wie ein Springmesser, und rutscht unter der Dünung hindurch. Es wird als Triton bezeichnet und kann so programmiert werden, dass es dies tut, wenn seine Systeme eine Gefahr erkennen. Mir scheint, dass sich dieser Akt des Verschwindens in der realen Welt als nützlich erweisen könnte: Ein paar Monate vor dieser Übung kaperte ein iranisches Kriegsschiff zwei autonome Schiffe, sogenannte Saildrones, die nicht untertauchen können. Die Marine musste eingreifen, um sie zurückzubekommen.
Der Triton könnte bis zu fünf Tage lang unten bleiben und bei klarer Küste wieder auftauchen, um seine Batterien aufzuladen und nach Hause zu telefonieren. Zum Glück wird mein Schnellboot nicht so lange herumhängen. Es startet seinen Motor und rast zurück zur Andockbucht eines 150 Fuß langen Kutters der Küstenwache. Ich gehe direkt zum Oberdeck, wo ich weiß, dass sich unter einer Markise ein Stapel Wasserflaschen befindet. Im Vorbeigehen betrachte ich die schweren Maschinengewehre und Mörser, die auf das Meer gerichtet sind.
Das Deck kühlt im Wind ab, während der Kutter zur Basis in Manama, Bahrain, zurückkehrt. Während der Fahrt komme ich mit der Crew ins Gespräch. Ich freue mich darauf, mit ihnen über den Krieg in der Ukraine und den starken Einsatz von Drohnen dort zu sprechen, von Hobby-Quadrocoptern mit Handgranaten bis hin zu vollwertigen Militärsystemen. Ich möchte sie nach einem kürzlichen Angriff auf den von Russland besetzten Marinestützpunkt in Sewastopol fragen, bei dem mehrere in der Ukraine gebaute Drohnenboote mit Sprengstoff im Einsatz waren – und nach einer öffentlichen Crowdfunding-Kampagne zum Bau weiterer Boote. Aber diese Gespräche werden nicht möglich sein, sagt mein Begleiter, ein Reservist des Social-Media-Unternehmens Snap. Da die Fünfte Flotte in einer anderen Region operiert, hätten die Mitarbeiter der Task Force 59 nicht viele Informationen darüber, was in der Ukraine vor sich geht, sagt sie. Stattdessen sprechen wir über KI-Bildgeneratoren und darüber, ob sie Künstler arbeitslos machen werden, darüber, wie die Zivilgesellschaft mit künstlicher Intelligenz ihren eigenen Wendepunkt zu erreichen scheint. In Wahrheit wissen wir noch nicht die Hälfte davon. Es ist erst einen Tag her, seit OpenAI ChatGPT eingeführt hat, die Konversationsschnittstelle, die das Internet zerstören würde.
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Zurück an der Basis mache ich mich auf den Weg zum Robotics Operations Center, wo eine Gruppe von Menschen die verteilten Sensoren auf dem Wasser überwacht. Das ROC ist ein fensterloser Raum mit mehreren Tischreihen und Computermonitoren – ziemlich charakterlos, bis auf die Wände, die mit inspirierenden Zitaten von Persönlichkeiten wie Winston Churchill und Steve Jobs geschmückt sind. Hier treffe ich Kapitän Michael Brasseur, den Leiter der Task Force 59, einen braungebrannten Mann mit rasiertem Kopf, einem bereitwilligen Lächeln und dem Blick eines Seemanns. (Brasseur ist inzwischen aus der Marine ausgeschieden.) Er geht zwischen den Tischen hin und her und erklärt fröhlich, wie das ROC funktioniert. „Hier werden alle Daten, die von den unbemannten Systemen kommen, zusammengeführt und wir nutzen KI und maschinelles Lernen, um wirklich spannende Erkenntnisse zu gewinnen“, sagt Brasseur, reibt seine Hände aneinander und grinst, während er spricht.
Die Monitore flackern vor Aktivität. Die KI der Task Force 59 markiert verdächtige Schiffe in der Gegend. Es hat bereits heute eine Reihe von Schiffen markiert, deren Identifikationssignal nicht übereinstimmte, was die Flotte zum Anlass nahm, genauer hinzuschauen. Brasseur zeigt mir eine neue Schnittstelle in der Entwicklung, die es seinem Team ermöglichen wird, viele dieser Aufgaben auf einem Bildschirm auszuführen, von der Betrachtung des Kamerafeeds eines Drohnenschiffs bis hin zur Ausrichtung näher an das Geschehen.
„Es kann autonom eingreifen, aber wir empfehlen es nicht. Wir wollen den Dritten Weltkrieg nicht beginnen.“
Brasseur und andere an der Basis betonen, dass die autonomen Systeme, die sie testen, nur zur Erkennung und Erkennung dienen und nicht für bewaffnete Interventionen. „Der aktuelle Schwerpunkt der Task Force 59 liegt auf der Verbesserung der Sichtbarkeit“, sagt Brasseur. „Alles, was wir hier tun, unterstützt die Mannschaftsschiffe.“ Einige der an der Übung beteiligten Roboterschiffe veranschaulichen jedoch, wie kurz der Abstand zwischen unbewaffnet und bewaffnet sein kann – eine Frage des Austauschs der Nutzlasten und der Optimierung der Software. Ein autonomes Schnellboot, die Seagull, soll Minen und U-Boote jagen, indem es eine Sonaranlage hinter sich herzieht. Amir Alon, leitender Direktor bei Elbit Systems, dem israelischen Verteidigungsunternehmen, das die Seagull entwickelt hat, erzählt mir, dass sie auch mit einem ferngesteuerten Maschinengewehr und Torpedos ausgestattet werden kann, die vom Deck aus abgefeuert werden. „Es kann autonom eingreifen, aber wir empfehlen es nicht“, sagt er lächelnd. „Wir wollen keinen Dritten Weltkrieg beginnen.“
Nein, das tun wir nicht. Aber Alons Witz berührt eine wichtige Wahrheit: Autonome Systeme mit der Fähigkeit zu töten gibt es bereits auf der ganzen Welt. In jedem größeren Konflikt, selbst wenn er weit vor dem Dritten Weltkrieg liegt, werden beide Seiten bald der Versuchung ausgesetzt sein, diese Systeme nicht nur zu bewaffnen, sondern in manchen Situationen auch die menschliche Kontrolle abzuschaffen und den Maschinen die Möglichkeit zu geben, mit Maschinengeschwindigkeit zu kämpfen. In diesem Krieg KI gegen KI werden nur Menschen sterben. Es ist also berechtigt, sich zu fragen: Wie denken diese Maschinen und die Menschen, die sie bauen?
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Im US-Militär gibt es seit Jahrzehnten Ansätze autonomer Technologie, von der Autopilot-Software in Flugzeugen und Drohnen bis hin zu den automatisierten Deckgeschützen, die Kriegsschiffe vor ankommenden Raketen schützen. Dabei handelt es sich jedoch um begrenzte Systeme, die darauf ausgelegt sind, bestimmte Funktionen in bestimmten Umgebungen und Situationen auszuführen. Autonom vielleicht, aber nicht intelligent. Erst 2014 begannen die Spitzen des Pentagons, über leistungsfähigere autonome Technologie als Lösung für ein viel größeres Problem nachzudenken.
Bob Work, damals stellvertretender Verteidigungsminister, befürchtete, dass die geopolitischen Rivalen des Landes „nahezu Parität“ mit dem US-Militär hätten. Er wollte wissen, wie man „die Übermacht wiedererlangt“, sagt er, und wie man sicherstellt, dass die USA, selbst wenn sie nicht so viele Soldaten, Flugzeuge und Schiffe wie beispielsweise China aufstellen könnten, aus jedem potenziellen Konflikt als Sieger hervorgehen könnten. Also fragte Work eine Gruppe von Wissenschaftlern und Technologen, worauf das Verteidigungsministerium seine Bemühungen konzentrieren sollte. „Sie kamen zurück und sagten KI-gestützte Autonomie“, erinnert er sich. Er begann mit der Arbeit an einer nationalen Verteidigungsstrategie, die Innovationen aus dem Technologiesektor fördern sollte, einschließlich der neu entstehenden Fähigkeiten, die das maschinelle Lernen bietet.
Das war leichter gesagt als getan. Das Verteidigungsministerium ließ bestimmte Projekte bauen – darunter Sea Hunter, ein experimentelles Kriegsschiff im Wert von 20 Millionen US-Dollar, und Ghost Fleet Overlord, eine Flottille konventioneller Schiffe, die nachgerüstet wurden, um autonom zu funktionieren –, aber bis 2019 scheiterten die Versuche des Ministeriums, Big Tech anzuzapfen. Der Versuch, eine einzige Cloud-Infrastruktur zur Unterstützung von KI bei militärischen Einsätzen zu schaffen, wurde zu einem politischen Brennpunkt und wurde aufgegeben. Ein Google-Projekt, bei dem es um den Einsatz von KI zur Analyse von Luftbildern ging, stieß auf heftige öffentliche Kritik und Proteste der Mitarbeiter. Als die Marine ihren Schiffbauplan 2020 veröffentlichte, der darlegt, wie sich die US-Flotten in den nächsten drei Jahrzehnten entwickeln werden, betonte sie die Bedeutung unbemannter Systeme, insbesondere großer Überwasserschiffe und Tauchboote – stellte jedoch relativ wenig Geld für deren Entwicklung bereit.
In einem winzigen Büro tief im Pentagon war sich ein ehemaliger Marinepilot namens Michael Stewart dieses Problems durchaus bewusst. Stewart hatte den Auftrag, die Entwicklung neuer Kampfsysteme für die US-Flotte zu überwachen, und hatte allmählich das Gefühl, dass die Marine wie ein Blockbuster war, der schlafwandelnd in die Netflix-Ära eintauchte. Jahre zuvor hatte er an der Harvard Business School Kurse von Clay Christensen besucht, einem Akademiker, der untersuchte, warum große, erfolgreiche Unternehmen von kleineren Marktteilnehmern in den Ruin getrieben werden – oft weil sie durch die Konzentration auf das aktuelle Geschäft neue Technologietrends verpassen. Die Frage für die Marine bestand aus Stewarts Sicht darin, wie sie die Einführung von Robotik und KI beschleunigen kann, ohne in institutioneller Bürokratie zu versinken.
Andere dachten damals ähnlich. Im Dezember dieses Jahres beispielsweise veröffentlichten Forscher von RAND, dem staatlich finanzierten Verteidigungs-Think Tank, einen Bericht, der einen alternativen Weg vorschlug: Anstatt eine Handvoll autonomer Systeme zu übertriebenen Preisen zu finanzieren, warum nicht reihenweise günstigere Systeme aufkaufen? Der RAND-Bericht stützte sich auf mehrere Kriegsspiele einer chinesischen Invasion in Taiwan und stellte fest, dass der Einsatz einer großen Anzahl kostengünstiger Luftdrohnen die Chancen auf einen Sieg der USA erheblich verbessern könnte. Durch die Bereitstellung eines Bildes von jedem Schiff in der Taiwanstraße könnten die hypothetischen Drohnen – die RAND „Kätzchen“ nannte – es den USA ermöglichen, die Flotte eines Feindes schnell zu zerstören. (Eine chinesische Militärzeitschrift nahm diese Vorhersage damals zur Kenntnis und diskutierte das Potenzial von Xiao Mao, dem chinesischen Ausdruck für „Kätzchen“, in der Taiwanstraße.)
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Anfang 2021 erstellten Stewart und eine Gruppe von Kollegen ein 40-seitiges Dokument mit dem Titel „Unmanned Campaign Framework“. Darin wurde ein holpriger, unkonventioneller Plan für den Einsatz autonomer Systeme durch die Marine dargelegt, der auf konventionelle Beschaffung verzichtet und stattdessen mit billigen Roboterplattformen experimentiert. Der Aufwand würde ein kleines, vielfältiges Team erfordern – Spezialisten für KI und Robotik, Experten für Marinestrategie –, das zusammenarbeiten könnte, um Ideen schnell umzusetzen. „Hier geht es nicht nur um unbemannte Systeme“, sagt Stewart. „Es ist genauso – wenn nicht sogar mehr – eine Organisationsgeschichte.“
Stewarts Plan erregte die Aufmerksamkeit von Vizeadmiral Brad Cooper von der Fünften Flotte, deren Territorium sich über 2,5 Millionen Quadratmeilen Wasserfläche erstreckt, vom Suezkanal rund um die Arabische Halbinsel bis zum Persischen Golf. Das Gebiet ist voller Schifffahrtswege, die sowohl für den Welthandel von entscheidender Bedeutung sind als auch von illegaler Fischerei und Schmuggel geprägt sind. Seit dem Ende des Golfkriegs, als sich ein Teil der Aufmerksamkeit und Ressourcen des Pentagons auf Asien verlagerte, suchte Cooper nach Möglichkeiten, mit weniger mehr zu erreichen, sagt Stewart. Der Iran hatte seine Angriffe auf Handelsschiffe intensiviert, indem er sie in bewaffneten Schnellbooten ausschwärmte und sogar mit Drohnen und ferngesteuerten Booten zuschlug.
Cooper bat Stewart, sich ihm und Brasseur in Bahrain anzuschließen, und gemeinsam begannen die drei mit dem Aufbau der Task Force 59. Sie untersuchten die autonomen Systeme, die bereits an anderen Orten auf der Welt im Einsatz sind – beispielsweise zum Sammeln von Klimadaten oder zur Überwachung von Offshore-Ölplattformen – und kam zu dem Schluss, dass das Leasing und die Modifizierung dieser Hardware einen Bruchteil dessen kosten würde, was die Marine normalerweise für neue Schiffe ausgibt. Die Task Force 59 würde dann eine KI-gesteuerte Software verwenden, um die Teile zusammenzusetzen. „Wenn neue unbemannte Systeme in diesen komplexen Gewässern eingesetzt werden können“, sagte mir Cooper, „glauben wir, dass sie auf die anderen Flotten der US-Marine übertragen werden können.“
Als sie die neue Task Force einrichteten, wurden diese Gewässer immer komplexer. In den frühen Morgenstunden des 29. Juli 2021 war ein Öltanker namens Mercer Street auf dem Weg von Tansania in die Vereinigten Arabischen Emirate entlang der Küste von Oman nach Norden unterwegs, als zwei schwarze, V-förmige Drohnen am Horizont auftauchten und durch die Gegend fegten der klare Himmel, bevor er im Meer explodiert. Einen Tag später, nachdem die Besatzung einige Trümmer aus dem Wasser gesammelt und den Vorfall gemeldet hatte, bombardierte eine dritte Drohne im Sturzflug das Dach des Kontrollraums des Schiffs und zündete dieses Mal einen Sprengstoff, der die Struktur durchbohrte und zwei Besatzungsmitglieder tötete . Die Ermittler kamen zu dem Schluss, dass drei im Iran hergestellte „Selbstmorddrohnen“ dafür verantwortlich seien.
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Die größte Bedrohung war für Stewart China. „Mein Ziel ist es, sehr schnell – innerhalb von fünf Jahren – mit billigen oder weniger teuren Sachen einzutreffen, um eine abschreckende Botschaft zu senden“, sagt er. Aber natürlich investiert China auch erheblich in die militärische Autonomie. Ein Bericht der Georgetown University aus dem Jahr 2021 ergab, dass die Volksbefreiungsarmee jedes Jahr mehr als 1,6 Milliarden US-Dollar für die Technologie ausgibt – ungefähr so viel wie die USA. Der Bericht stellt außerdem fest, dass autonome Schiffe, ähnlich denen, die von der Task Force 59 eingesetzt werden, ein Hauptschwerpunkt der chinesischen Marine sind. Es hat bereits einen Klon des Sea Hunter sowie angeblich ein großes Drohnen-Mutterschiff entwickelt.
Stewart hatte jedoch kein großes Interesse an seiner Arbeit bemerkt, bis Russland in die Ukraine einmarschierte. „Die Leute rufen mich an und sagen: ‚Kennen Sie das autonome Zeug, von dem Sie gesprochen haben? „Okay, erzähl mir mehr“, sagt er. Wie die Matrosen und Beamten, die ich in Bahrain traf, wollte er sich nicht konkret zur Situation äußern – nicht zum Drohnenboot-Angriff in Sewastopol; nicht um das 800-Millionen-Dollar-Hilfspaket, das die USA im vergangenen Frühjahr an die Ukraine schickten und das eine nicht näher bezeichnete Anzahl „unbemannter Küstenverteidigungsschiffe“ umfasste; Es geht nicht um die Bemühungen der Ukraine, völlig autonome Killerdrohnen zu entwickeln. Alles, was Stewart sagen würde, ist: „Der Zeitplan verschiebt sich definitiv.“
Hivemind ist für das Fliegen des F-16-Kampfflugzeugs konzipiert und kann die meisten menschlichen Piloten schlagen, die es im Simulator aufnehmen.
Ich bin in San Diego, Kalifornien, einem Haupthafen der US-Pazifikflotte, wo Verteidigungs-Startups wie Seepocken wachsen. Direkt vor mir, in einem hohen, von Palmen umgebenen Glasgebäude, befindet sich das Hauptquartier von Shield AI. Stewart ermutigte mich, das Unternehmen zu besuchen, das die V-BAT herstellt, eine Flugdrohne, mit der die Task Force 59 im Persischen Golf experimentiert. Obwohl es seltsam aussieht – es hat die Form eines umgedrehten T, mit Flügeln und einem einzelnen Propeller an der Unterseite – ist es ein beeindruckendes Stück Hardware, klein und leicht genug, dass ein Zwei-Personen-Team praktisch von überall aus starten kann. Aber es ist die Software im V-BAT, ein KI-Pilot namens Hivemind, die ich sehen möchte.
Ich gehe durch die strahlend weißen Büros des Unternehmens, vorbei an Ingenieuren, die an Drohnenteilen und Codezeilen herumfummeln, zu einem kleinen Konferenzraum. Dort beobachte ich auf einem großen Bildschirm, wie drei V-BATS zu einer simulierten Mission in der kalifornischen Wüste aufbrechen. Irgendwo in der Nähe wütet ein Lauffeuer und ihre Aufgabe ist es, es zu finden. Das Flugzeug startet senkrecht vom Boden, neigt sich dann nach vorne und fliegt in verschiedene Richtungen ab. Nach ein paar Minuten lokalisiert eine der Drohnen den Brand und gibt die Informationen dann an ihre Kohorten weiter. Sie passen ihren Flug an und bewegen sich näher an das Feuer heran, um dessen volle Ausdehnung zu erfassen.
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Die simulierten V-BATs befolgen keine direkten menschlichen Befehle. Sie befolgen auch keine Befehle, die von Menschen in herkömmlicher Software codiert wurden – das starre „Wenn dies, dann das“. Stattdessen erfassen und navigieren die Drohnen autonom ihre Umgebung, planen, wie sie ihre Mission erfüllen, und arbeiten in einem Schwarm zusammen. -Die Ingenieure von Shield AI haben Hivemind teilweise mit Verstärkungslernen trainiert, es auf Tausenden von simulierten Missionen eingesetzt und es nach und nach dazu ermutigt, sich auf die effizientesten Mittel zur Erfüllung seiner Aufgabe zu konzentrieren. „Das sind Systeme, die denken und Entscheidungen treffen können“, sagt Brandon Tseng, ein ehemaliger Navy SEAL, der das Unternehmen mitbegründet hat.
Diese Version von Hivemind enthält einen ziemlich einfachen Unteralgorithmus, der simulierte Waldbrände identifizieren kann. Natürlich könnte ein anderer Satz von Unteralgorithmen einem Drohnenschwarm dabei helfen, eine beliebige Anzahl anderer Ziele zu identifizieren – Fahrzeuge, Schiffe, menschliche Kämpfer. Das System ist auch nicht auf die V-BAT beschränkt. Hivemind ist auch für das Fliegen des F-16-Kampfflugzeugs konzipiert und kann die meisten menschlichen Piloten schlagen, die es im Simulator aufnehmen. (Das Unternehmen geht davon aus, dass diese KI ein „Copilot“ in neueren Generationen von Kampfflugzeugen wird.) Hivemind betreibt auch einen Quadcopter namens Nova 2, der klein genug ist, um in einen Rucksack zu passen, und das Innere von Gebäuden und unterirdischen Komplexen erkunden und kartieren kann.
Für die Task Force 59 – oder jede militärische Organisation, die relativ kostengünstig auf KI und Robotik umsteigen möchte – ist die Attraktivität dieser Technologien klar. Sie bieten nicht nur „verbesserte Sichtbarkeit“ auf dem Schlachtfeld, wie Brasseur es ausdrückte, sondern auch die Möglichkeit, Macht zu demonstrieren (und möglicherweise Gewalt anzuwenden), ohne dass tatsächlich Menschen am Arbeitsplatz sind. Anstatt Dutzende menschlicher Drohnenbetreiber für Such- und Rettungseinsätze oder Aufklärungsmissionen einzusetzen, könnten Sie ein Team aus V-BATs oder Nova 2 entsenden. Anstatt das Leben Ihrer sehr teuer ausgebildeten Piloten bei einem Luftangriff zu riskieren, könnten Sie einen Schwarm billiger Drohnen entsenden, von denen jede von derselben Spitzen-KI gesteuert wird und jede eine Erweiterung desselben Schwarmgeistes ist.
Doch so erstaunlich maschinelle Lernalgorithmen auch sein mögen, sie können von Natur aus undurchschaubar und unvorhersehbar sein. Während meines Besuchs bei Shield AI habe ich eine kurze Begegnung mit einer der Nova 2-Drohnen des Unternehmens. Es erhebt sich aus dem Büroboden und schwebt etwa einen Fuß von meinem Gesicht entfernt. „Es überprüft Sie“, sagt ein Ingenieur. Einen Moment später summt die Drohne nach oben und fliegt durch ein nachgebildetes Fenster auf einer Seite des Raumes. Die Erfahrung ist beunruhigend. In einem Augenblick hat dieser kleine Luftaufklärer eine Entscheidung über mich getroffen. Aber wie? Obwohl die Antwort möglicherweise den Ingenieuren von Shield AI zugänglich ist, die Elemente der Entscheidungsfindung des Roboters nachvollziehen und analysieren können, arbeitet das Unternehmen immer noch daran, diese Informationen „Nicht-Experten-Benutzern“ zugänglich zu machen.
Man muss sich nur die zivile Welt ansehen, um zu sehen, wie diese Technologie schief gehen kann – Gesichtserkennungssysteme, die rassistische und geschlechtsspezifische Vorurteile zeigen, selbstfahrende Autos, die gegen Objekte prallen, für deren Wahrnehmung sie nie trainiert wurden. Selbst bei sorgfältiger Planung könnte ein Militärsystem, das KI einbezieht, ähnliche Fehler machen. Ein Algorithmus, der darauf trainiert ist, feindliche Lastwagen zu erkennen, könnte durch ein ziviles Fahrzeug verwechselt werden. Ein Raketenabwehrsystem, das auf eingehende Bedrohungen reagieren soll, kann möglicherweise nicht vollständig „erklären“, warum es fehlgeschlagen ist.
Diese Risiken werfen neue ethische Fragen auf, ähnlich denen, die durch Unfälle mit selbstfahrenden Autos entstehen. Wer trägt die Verantwortung, wenn ein autonomes Militärsystem einen tödlichen Fehler begeht? Ist es der Kommandant, der für die Operation verantwortlich ist, der Offizier, der das System überwacht, der Computeringenieur, der die Algorithmen erstellt und das Hive-Geist vernetzt hat, der Makler, der die Trainingsdaten geliefert hat?
Matt Simon
Gregory Barber
Adrienne So
Will Knight
Eines ist sicher: Die Technologie schreitet rasant voran. Als ich Tseng traf, sagte er, das Ziel von Shield AI sei es, „ein operatives Team von drei V-BATs im Jahr 2023, sechs V-BATs im Jahr 2024 und zwölf V-BATs im Jahr 2025“ zu haben. Acht Monate nach unserem Treffen startete Shield AI ein Team aus drei V-BATs von einem Luftwaffenstützpunkt aus, um die simulierte Waldbrandmission zu fliegen. Das Unternehmen rühmt sich jetzt auch damit, dass Hivemind für eine Reihe von Missionen trainiert werden kann – die Suche nach Raketenbasen, den Kampf gegen feindliche Flugzeuge – und dass es bald auch dann operieren kann, wenn die Kommunikation eingeschränkt oder unterbrochen ist.
Bevor ich San Diego verlasse, mache ich einen Rundgang durch die USS Midway, einen Flugzeugträger, der ursprünglich am Ende des Zweiten Weltkriegs in Dienst gestellt wurde und jetzt dauerhaft in der Bucht angedockt ist. Das Schiff transportierte jahrzehntelang einige der fortschrittlichsten Militärtechnologien der Welt und diente als schwimmende Landebahn für Hunderte von Flugzeugen bei Aufklärungs- und Bombenangriffen in Konflikten von Vietnam bis Irak. In der Mitte des Trägers befindet sich wie ein höhlenartiger Metallmagen das Hangardeck. Türen auf der einen Seite führen in ein Labyrinth aus Korridoren und Räumen, darunter beengte Matrosenunterkünfte, gemütliche Offiziersschlafzimmer, Küchen, Krankenstationen, sogar einen Friseurladen und eine Wäscherei – eine Erinnerung daran, dass früher 4.000 Matrosen und Offiziere gleichzeitig hier waren dieses Schiff nach Hause.
Wenn ich hier stehe, kann ich spüren, wie tiefgreifend der Wandel zur Autonomie sein wird. Es kann noch lange dauern, bis Schiffe ohne Besatzung die Zahl der Schiffe mit Menschen an Bord übertreffen, sogar noch länger, bis Drohnen-Mutterschiffe die Meere beherrschen. Aber die Roboterarmada der Task Force 59, so jung sie auch ist, markiert einen Schritt in eine andere Welt. Vielleicht wird es eine sicherere Welt sein, in der Netzwerke autonomer Drohnen, die rund um den Globus stationiert sind, den Menschen dabei helfen, Konflikte unter Kontrolle zu halten. Oder vielleicht verdunkelt sich der Himmel durch Angriffsschwärme. Welche Zukunft auch immer am Horizont liegt, die Roboter segeln in diese Richtung.
Dieser Artikel erscheint in der Septemberausgabe 2023. Abonniere jetzt.
Teilen Sie uns Ihre Meinung zu diesem Artikel mit. Senden Sie einen Brief an den Herausgeber unter [email protected].