Multimodale neuronale Netze sind fortgeschritten KIModelle, die mehrere Arten von Informationen gleichzeitig verstehen und integrieren können, wie Text, Bilder und Ton, und dadurch eine präzisere Darstellung der Realität erzeugen, machen diese Technologie für militärische Zwecke hochinteressant. Ihr Einsatz wirft jedoch auch zahlreiche ethische Fragen auf.
Die Entwicklungen im Bereich der künstlichen Intelligenz (KI) beschleunigen sich rasant, und das Konzept multimodaler Modelle, einer Form tiefer neuronaler Netze, gewinnt sowohl im kommerziellen als auch im militärischen Bereich zunehmend an Bedeutung. Um einen Überblick über die neuesten Forschungsergebnisse zu geben, haben Forscher der Universität [Name der Universität einfügen] FOI den Bericht herausgegeben Einführung in Multimodale Modelle.
Das Interesse an modalen neuronalen Netzwerkmodellen rührt von ihrer Fähigkeit her, mehrere Arten von Informationen gleichzeitig zu verstehen und mit ihnen zu interagieren. Beispielsweise kann ein solches Netzwerk erkennen, dass ein Bild von … Der Tank entspricht der Beschreibung „von einem Panzer im Text“, erklärt Edward Tjörnhammar, Forscher bei FOI und einer der Autoren des Berichts.
„Die Stärke multimodaler Modelle liegt in ihrer Fähigkeit, verschiedene Arten von Eingangsdaten gleichzeitig auszuwerten. Dadurch können sie eine präzisere Darstellung der Realität erzeugen, indem sie unterschiedliche Kontextdaten kombinieren“, erklärt er. Dies wiederum verleiht multimodalen Modellen eine größere Fähigkeit, komplexe Situationen zu verstehen und mit ihnen zu interagieren, in denen verschiedene Sinne oder Informationsflüsse eine Rolle spielen.
Der Mensch funktioniert multimodal.
Es gibt bereits kommerzielle KI-Dienste, die auf Basis textbasierter Anweisungen Texte, Musik oder Kunstwerke erstellen. Durch die multimodale Arbeitsweise wird das KI-System bzw. der Roboter immer menschenähnlicher.
Wir Menschen funktionieren multimodal, indem wir instinktiv verschiedene Sinne wie Sehen, Hören, Tasten und Gleichgewicht kombinieren. Heute gibt es beispielsweise multimodale Industrieroboter, die in einer kontrollierten Umgebung anspruchsvolle und autonome Aufgaben ausführen. Der Übergang zu militärischen Anwendungen gestaltet sich jedoch schwierig, so die Aussage. Edward Tjörnhammar.
Als Beispiel nennt er das amerikanische Robotikunternehmen. Boston Dynamics Das Unternehmen entwickelt unter anderem Roboterhunde für verschiedene Zwecke in der Industrie und im Baugewerbe, beispielsweise zum Bewegen von Gegenständen in für Menschen gefährlichen Umgebungen. Zwei Roboterhunde wurden auch von der New Yorker Feuerwehr angeschafft. Sie sollen auch in komplexeren Umgebungen eingesetzt werden können, obwohl sie keine multimodalen oder tiefen neuronalen Netzwerkmodelle verwenden.
Wenn man beispielsweise ein multimodales System entwickeln möchte, ähnlich wie Roboterhunde, das sich in unbekanntem Terrain auf einem Schlachtfeld bewegen kann, wird die Sache deutlich komplexer. Der Roboter muss das Gelände, die Topografie und die Umgebung erfassen können, um auf Basis dieses externen Kontextes selbstständig Entscheidungen treffen zu können. Dies wäre zwar mit einem multimodalen Modell möglich, doch diese sind derzeit noch zu groß und ressourcenintensiv.
Von der kommerziellen bis zur militärischen Nutzung
Es ist nicht ungewöhnlich, dass die Streitkräfte kommerzielle Lösungen in Betracht ziehen und diese dann für militärische Zwecke anpassen. Edward Tjörnhammar verweist auf mehrere Bereiche, in denen militärische Anwendungen von KI auf Basis multimodaler Modelle bereits eingesetzt werden oder in Kürze eingesetzt werden können.
– Es kann beispielsweise zur Analyse von Satellitenbildern, zur Interpretation von Geräuschen vom Schlachtfeld oder zur Bestimmung von Geodaten verwendet werden und diese Daten können integriert werden, um Entscheidungen in Echtzeit zu treffen, sagt er und fügt hinzu:
Was aber geschieht, wenn Waffensysteme situationsabhängig selbstständig Entscheidungen treffen? Oder wenn Informationssysteme immer mehr autonome Entscheidungspunkte integrieren? Letztendlich geht es um lebensverändernde moralische Entscheidungen. Mehr autonome Entscheidungen in der Entscheidungskette bedeuten, dass weniger moralische Entscheidungen von Menschen getroffen werden müssen.
Eine der größten Sorgen im Zusammenhang mit KI, insbesondere bei militärischen Anwendungen, ist das Risiko des Missbrauchs.
Man kann sich eine Zukunft vorstellen, in der ein Beitrag in den sozialen Medien einen Raketenangriff auf ein Wohngebäude auslösen könnte.
Forschung in atemberaubendem Tempo
Dieses Bild erinnert an die gezielten Angriffe Israels im Gazastreifen, Palästina. Edward Tjörnhammar bestätigt, dass Israel bei der militärischen Anwendung neuester KI-Technologien und multimodaler Modelle eine Vorreiterrolle einnimmt. So werden beispielsweise die KI-Systeme Lavender und Gospel zur automatischen Zielerfassung eingesetzt, um gezielte Angriffslisten, sogenannte “Tötungslisten”, zu erstellen.
– Wir wissen heute jedoch nicht, ob Gospel oder Lavender multimodale Modelle verwenden, da wir ihre genauen Fähigkeiten nicht kennen. Die Forschung schreitet aber in atemberaubendem Tempo voran, nicht zuletzt dank große Technologieunternehmen investieren massiv im Bereich der KI, aber auch durch die Streitkräfte verschiedener Länder.
Der Bericht weist darauf hin, dass multimodale Modelle, die Teil dessen sind, was gemeinhin als KI bekannt ist, wahrscheinlich sowohl einen erheblichen Einfluss auf unseren Alltag als auch auf die zukünftige Verteidigung haben werden.
– Solange der demokratische Dialog funktioniert, kann KI uns allen nützen, doch wir müssen wachsam bleiben. Das Potenzial von KI im Verteidigungsbereich ist groß, aber gleichzeitig wollen wir die Anzahl der moralischen und ethischen Entscheidungen, die innerhalb der gesamten militärischen Organisation getroffen werden müssen, nicht verringern, so Edward Tjörnhammar.
Lesen Sie den Bericht






