Добавить новость
103news.com
World News in German
Апрель
2023

Künstliche Intelligenz | Ethik für Kampfmaschinen: Ist der Zug schon abgefahren?

0
Über digitale Kriegsführung und verantwortungslose Künstliche „Intelligenz“: NGOs fordern ein Verbot von autonomen Waffensystemen. Industrie und Militärs wiegeln ab
Ethik für Kampfmaschinen: Ist der Zug schon abgefahren?

Man war in Den Haag offensichtlich nervös. Für die Anmeldung zur Tagung „REAIM – Responsible AI in the Military Domain“ im vergangenen Februar musste man nicht nur ein Online-Formular ausfüllen, sondern auch den Scan des eigenen Passes und zudem ein Passbild hochladen. Es ging schliesslich um den sogenannten „verantwortungsvollen“ Einsatz von Künstlicher Intelligenz (KI) auf dem Feld der Kriegsführung. Der Ausweis wurde beim abendlichen Empfang nochmals kontrolliert. Nur mit einem großformatigen Ausdruck des Fotos und QR-Code um den Hals durfte man das beeindruckende Herzstück des Rathauses in Den Haag betreten, dessen Architektur eher an einen Serverpark als an ein öffentliches Gebäude erinnert.

Die 2.500 Teilnehmer:innen der Tagung – Soldat:innen, Ingenieur:innen, Industrie-Lobbyist:innen, Politiker:innen, Kultur- und Naturwissenschaftler:innen – wurden hier vom Den Haager Bürgermeister zu Häppchen, dezentem Live-Bebop und Wein eingeladen. Zur Begrüßung wurden altbekannte Narrative von Innovation und wegweisender Zukunftstechnologie aufgerufen, so dass sogar militärisch genutzte KI ‚verantwortungsvoll‘ wird.

Magische Formel „Vertrauenswürdig“

Die Adjektive ‚responsible‘ oder ‚trustworthy‘ lassen sich als ‚verantwortlich‘ oder auch ‚vertrauenswürdig‘ übersetzen. Diese Begriffe sind in den letzten Jahren zu magischen Formeln bei Konzernen, Politiker:innen und Tech-Lobbyist:innen geworden. Es scheint, als wolle man mit diesen Begrifflichkeiten einer zunehmend kritischen gesellschaftlichen Debatte über KI den Wind aus den Segeln nehmen. Denn immer mehr Wissenschaftler:innen und NGOs zeigen auf, dass KI beziehungsweise Big Data-Analysen, ‚selbstlernende‘ Algorithmen und automatisierte Entscheidungsfindung häufig zu verzerrenden, diskriminierenden und fatalen Effekten im Alltag führen.

Maschinen sind nicht per se objektiv und wertneutral, wie man an undurchsichtigen und häufig diskriminierenden Ergebnissen bei der Google-Suche oder diskriminierenden Algorithmen der Schufa sieht, die zum Beispiel Frauen oder Menschen in migrantisch geprägten Stadteilen per se als weniger kreditwürdig einstufen. Immer öfter geraten diese Formen algorithmisierter Gesellschaft mit demokratischen Grund- und Menschenrechten in Konflikt.

Besonders problematisch werden Effekte einer intransparenten Datenpolitik der KI im militärischen Bereich. Was für Konsequenzen hat es, wenn ‚autonome‘ Waffensysteme (AWS) ohne echte menschliche Kontrolle ('meaningful human control') auf der Grundlage selbstlernender Algorithmen Menschen als Ziele aussuchen und töten? UN-Sekretär António Guterres erklärte AWS für „moralisch abstoßend und politisch inakzeptabel“ und fordert ein Verbot. Auch viele Expert:innen und NGOs – wie das Internationale Komitee des Roten Kreuzes, Organisationen wie Human Rights Watch oder Amnesty International, die unter dem Dach der Kampagne Stop Killer Robots kooperieren – arbeiten seit Jahren für ein Verbot. Durch ihren Druck gelang es 2014, AWS auf die Agenda jährlicher Expert:innengespräche zu bestimmten konventionellen Waffen (CCW) bei den UN in Genf zu setzen. 2015 forderten über 5.000 KI- und Robotikforscher:innen in einem offenen Brief ein Verbot von AWS. Und 2017 veröffentlichte das US-amerikanische Future of Life-Institut einen Videoclip namens ‚Slaughterbots‘, der sofort viral ging und anschaulich demonstrierte, wie AWS zu Massenvernichtungswaffen werden können. Am Ende des Videos mahnt Stuart Russel, einer der bekanntesten KI-Forscher:innen weltweit, das Verbot von AWS umgehend umzusetzen. Doch aufgrund der Blockade durch Militärgroßmächte wie USA, Großbritannien, China, Russland und Deutschland kam es bisher zu keiner Regulierung.

Luftkampfsystem, ethisch flankiert

Doch zurück ins Rathaus von Den Haag. Auf der Tagung ließ sich gut beobachten, wie die Industrie, das Militär und teilweise auch die Politik versuchen, die massive Kritik der Expert:innen und NGOsdurch das Konzept einer ‘verantwortungs- oder vertrauenswürdigen’ KI zu neutralisieren. Nur zwei Beispiele: Florian Keisinger von Airbus Defence stellte das Europäische Militär-Großprojekt Future Combat Air System (Zukünftiges Luftkampfsystem) vor, welches aus einem bemannten Kampfflugzeug sowie aus unbemannten Flugzeugen, Waffensystemen, Gefechtsständen und Satelliten besteht. Dieses „System der Systeme“ soll bis 2040 für circa 300 Milliarden Euro entwickelt und dabei „ethisch“ flankiert werden.

Allerdings wurde aus den Beiträgen des FCAS-Panels nicht deutlich, wie man mit Hilfe technischer Designprinzipien „verantwortliche“ militärische KI erreichen will. Der vorgestellte „Ethik-Demonstrator“ blieb vage und wurde nicht weiter diskutiert. Trotzdem versicherte Nato-General a.D. Jörg Vollmer , dass KI in der Kriegsführung helfen könne und dass man ihr trauen müsse. Und der Informatikprofessor Wolfgang Koch suggerierte die Alternativlosigkeit der KI-Systeme, da diese auch von skrupellosen Gegnern genutzt würden. Von der völkerrechtlichen Verpflichtung, Konflikte primär friedlich und diplomatisch zu lösen und Zivilist:innen zu schützen, war hier nicht die Rede.

Ein zweites Beispiel für einen fragwürdigen Umgang mit dem Einsatz künstlicher Intelligenz in Sachen Krieg war das niederländische Elsa Defence Lab. Das Lab warb mit „partizipativem Design“ – ein Ansatz, der in der kritischen Informatik seit Jahrzehnten praktiziert wird und dort engste Interaktion mit den User:innen im Entwicklungsprozess bedeutet. Das Elsa Defence Lab reduzierte das auf eine Art Umfrage am runden Tisch: Um eine verantwortliche KI zu entwickeln, wolle man gemeinsam mit unterschiedlichsten Teilnehmern (Bürger:innen, Militär, Ingenieur:innen, Forscher:innen, Politik) Einsatzszenarien diskutieren und bewerten lassen. Die sollten zehn Thesen zu einem unrealistischen Szenario eines Blauhelmeinsatzes bewerten: Zehn Soldat:innen mit 50 Drohnen werden von einer Überzahl an Terrorist:innen mit sprengstoffgeladenen Fahrzeugen und Drohnen angegriffen. Die Auswahl des Szenarios zeigt in seiner Engführung dass häufig nicht ergebnisoffen über den Einsatz von KI diskutiert wird. Die Option eines Verbots bestimmter Technologieanwendungen wurde sogar explizit ausgeschlossen.

Optimierung von Algorithmen ist etwas anderes als menschliches Lernen

In beiden Veranstaltungen fehlte eine seriöse Auseinandersetzung mit der Komplexität von Mensch-Maschine-Interaktion und den Grundlagen von KI. Dann wäre deutlich geworden, dass Maschinen nicht wie Menschen Entscheidungen treffen, sondern auf der Basis vorgegebener, häufig nicht validierter und hinterfragter Daten arbeiten. ‚Selbstlernende‘ Algorithmen optimieren sich mit Hilfe großer Rechenkapazitäten, um sich vorgegebenen Zielen anzupassen. Diese Optimierung von Algorithmen ist etwas anderes als menschliches Lernen, das auf Bedeutungen und auf dem Verständnis von Zusammenhängen basiert. Gleichzeitig sind für die Programmier:innen selbst die massiven Rechenoperationen der Maschinen in ihrer Komplexität oft nicht mehr nachvollziehbar – und damit auch nicht beherrschbar. Und möchte man wirklich selbstlernende militärische Systeme, die sich über falsche Tötungsentscheidungen optimieren?

Musk fordert KI-Moratorium und einen Plan

Pausenknopf Noch ein offener Brief: Unter dem Schlagwort „Pause Giant AI Experiments“ forderte das US-amerikanische Future of Life Institute jüngst einen sechsmonatigen Entwicklungsstopp für KI-Systeme, die leistungsfähiger als GPT-4 sind. Das Schreiben wurde bislang von mehr als 9.000 Personen unterzeichnet, darunter auch Elon Musk, der auch Berater und Geldgeber der Instituts sein soll. Auf der Liste der Unterzeichner stehen der Apple-Mitbegründer Steve Wozniak und zahlreiche Akademiker:innen.
Sie sorgen sich, dass in den vergangenen Monaten ein außer Kontrolle geratener Wettlauf um immer leistungsfähigere KI-Systeme begonnen habe. Forschung an KI habe das Potenzial, weitreichende Folgen für „das Leben auf der Erde“ nach sich zu ziehen, und bedürfe deshalb Planung und Kontrolle. Genau das aber passiere derzeit nicht. Die Menschheit solle sich fragen: Wollen wir wirklich Maschinen, die uns ersetzen, überwältigen und übertrumpfen und über unsere Zukunft bestimmen?

Pepe Egger

KI-Expert:innen und Technikforscher:innen betonen, dass datenbasierte, selbst-lernende Algorithmen grundsätzlich nicht in der Lage sind und sein werden, komplexe Zusammenhänge in variablen Kontexten wie einem Schlachtfeld adäquat zu verstehen. Natürlich machen auch Menschen Fehler, aber die entscheidende Differenz ist, dass Maschinen a priori jegliches Verständnis dessen, was sie tun, fehlt. Gleichzeitig sind wir auf das engste mit den Maschinen verbunden.

Auch die auf der Tagung oft gehörte Behauptung: „In letzter Instanz entscheidet immer der Mensch“ ist absurd. Denn viele Nutzer:innen weisen einen ‚Machine Bias‘ auf: Sie tendieren dazu, eher der Maschine als dem Menschen zu glauben. So folgen viele Autofahrer:innen lieber stur den Anweisungen des Navigationssystems, als der Ortskundigen auf dem Nebensitz zu trauen. Das wäre bei AWS fatal. Man kann nicht von ‚meaningful human control‘, von einer eigenständigen menschlichen Entscheidung sprechen, wenn spezifische Entscheidungen durch Algorithmen, Auswahloptionen oder Interfaces nahegelegt werden.

Verantwortung wegklicken so wie Cookies

Auch die Vorgabe durch beschränkte Auswahloptionen, einschlägig designte Interfaces und spezifisch konfigurierte Algorithmen ist problematisch: Töte ich diesen Menschen – ja oder nein? Verleitet mich ein grüner Knopf zum Abdrücken? Man kennt das schon von all den tollen Varianten, mit denen man uns zu überreden versucht, alle Cookies auf einer Website zuzulassen, indem man den Zustimmungsbutton einfacher erreichbar und deutlicher sichtbar macht.

Auf der Tagung wurde von einschlägigen Akteur:innen immer wieder behauptet, dass der Einsatz von autonomen Waffensystemen nicht mehr unterbunden werden könne, deshalb gälte es, sie ethisch einzuhegen. Eine fragwürdige Behauptung angesichts der Tatsache, dass historisch unterschiedlichste Waffen wie zum Beispiel biologische und chemische Waffen, Landminen oder Clusterbomben bereits geächtet wurden. Wieso also nicht AWS?

Wahrend der Abschlussveranstaltung veröffentlichten die USA eine neue, völlig unverbindliche Deklaration zur militärischen Nutzung von KI, die zugleich von einem Aufruf der niederländischen Regierung flankiert wurde. Beide Erklärungen enthalten keinerlei konkrete Regeln oder Beschränkungen für Entwicklung und Gebrauch autonomer Waffensysteme. Auch sie scheinen sich dem wachsenden Druck der internationalen Zivilgesellschaft zur rechtlich verbindlichen Regulierung von AWS entgegenzustellen. Bei der UN-Generalversammlung im Oktober 2022 hatten die USA noch zusammen mit 69 anderen Staaten in einer gemeinsamen Erklärung die fundamentalen Risiken von AWS anerkannt. Vor diesem Hintergrund kann man den Titel der Tagung REAIM (Re-Aim) sprichwörtlich als Neuausrichtung der Big Player verstehen: Man will nicht mehr darüber reden, ob autonome Waffensysteme und KI von Streitkräften genutzt werden, sondern nur noch wie.

Jutta Weber, Professorin für Mediensoziologie an der Universität Paderborn, aktuell leitet sie einen BMBF-Forschungsverbund zum Thema Meaningful Human Control. Autonome Waffensysteme zwischen Regulation und Reflexion

Lesen Sie mehr in der aktuellen Ausgabe des Freitag.





Губернаторы России
Москва

Москва-Пекин. Собянин в Китае подписал соглашение о сотрудничестве





Москва

Московский аэропорт Домодедово и Всероссийское общество инвалидов заключили соглашение о сотрудничестве


Губернаторы России

103news.net – это самые свежие новости из регионов и со всего мира в прямом эфире 24 часа в сутки 7 дней в неделю на всех языках мира без цензуры и предвзятости редактора. Не новости делают нас, а мы – делаем новости. Наши новости опубликованы живыми людьми в формате онлайн. Вы всегда можете добавить свои новости сиюминутно – здесь и прочитать их тут же и – сейчас в России, в Украине и в мире по темам в режиме 24/7 ежесекундно. А теперь ещё - регионы, Крым, Москва и Россия.

Moscow.media
Москва

Сергей Собянин: Активно укрепляем отношения с Китаем



103news.comмеждународная интерактивная информационная сеть (ежеминутные новости с ежедневным интелектуальным архивом). Только у нас — все главные новости дня без политической цензуры. "103 Новости" — абсолютно все точки зрения, трезвая аналитика, цивилизованные споры и обсуждения без взаимных обвинений и оскорблений. Помните, что не у всех точка зрения совпадает с Вашей. Уважайте мнение других, даже если Вы отстаиваете свой взгляд и свою позицию. 103news.com — облегчённая версия старейшего обозревателя новостей 123ru.net.

Мы не навязываем Вам своё видение, мы даём Вам объективный срез событий дня без цензуры и без купюр. Новости, какие они есть — онлайн (с поминутным архивом по всем городам и регионам России, Украины, Белоруссии и Абхазии).

103news.com — живые новости в прямом эфире!

В любую минуту Вы можете добавить свою новость мгновенно — здесь.

Музыкальные новости

Бато Багдаев

Сказка театра Ульгэр в Бурятии «Волшебный платок бабушки Дари» - это захватывающее путешествие в мир волшебства - Театр и Цирк, Культура и Концерт, Россия и Дети:




Спорт в России и мире

Алексей Смирнов – актер, которого, надеюсь, еще не забыли

Военно-спортивный фестиваль Росгвардии в «Лужниках» собрал более 20 000 москвичей и гостей столицы

Красногорск первым встретил участников международного супермарафона Москва-Минск

Резидент «Инсайт Люди» Дмитрий Зубов установил мировой рекорд по чеканке мяча


Кирилл Скачков

Кирилл Скачков из Новокузнецка стал победителем Игр стран БРИКС-2024



Новости Крыма на Sevpoisk.ru


Новости 24 часа

В Красноярском крае будут судить азербайджанца, который в 2006 году избил и изнасиловал певицу



Частные объявления в Вашем городе, в Вашем регионе и в России