IPPNW-Thema "Nuclear Justice now!"

Page 10

NUCLEAR JUSTICE NOW!

„Bei Software gibt es keine Rüstungskontrolle“ Atomkrieg aus Versehen: Im Gespräch mit dem KI-Experten Prof. Karl-Hans Bläsius Lieber Herr Bläsius, Atomwaffen und KI stellen Ihnen zufolge beide existentielle Bedrohungen für die Menschheit dar. Was unterscheidet Künstliche Intelligenz (KI) in ihrer Auswirkung von Atomwaffen? Das Problem bei KI ist: Es ist Software. Atomwaffen können prinzipiell vernichtet werden, bei Software ist das schon schwieriger. Es ist extrem leicht, Kopien zu erstellen. Das heißt: Alles, was in einem Rüstungswettlauf entwickelt wird, ist irreversibel. Was auch eine Rolle spielt: Es machen immer mehr private Akteure mit. Die Entwicklung von Atomwaffen ging noch von den Staaten selbst aus. Nun sehen wir im Ukrainekrieg, dass es Anwendungen gibt, die aus dem privaten Sektor kommen. Software, die in Kriegen eingesetzt wird, kann verschlüsselt übers Internet übertragen werden. Da funktioniert Rüstungskontrolle kaum. Bei vielen wissenschaftlichen Entwicklungen, wie z. B. der Atombombe, hat sich aus der Grundlagenforschung eine militärische Nutzung entwickelt. Ist das Zivile und das Militärische im Entwicklungsprozess überhaupt voneinander zu trennen? Diese beiden Bereiche sind in der Entwicklung tatsächlich kaum voneinander zu trennen, höchstens noch die Anwendungen. Vor einigen Jahren gab es etwa Proteste, zum Beispiel bei Google, wo Mitarbeiter*innen protestiert haben, dass ihre Systeme auch in militärischen Bereichen eingesetzt worden sind. Es ist schwer geworden, das auseinanderzuhalten, auch bei Anwendungen, die auf neuronalen Netzen basieren. Das sind allgemeine Ent-

wicklungen, die aber in verschiedene Anwendungsfelder münden. Natürlich könnte KI auch im militärischen Bereich für Verteidigungsmaßnahmen genutzt werden. Das würde aber mit Sicherheit verursachen, dass auch die entsprechenden Angriffsmaßnahmen verstärkt werden – mit der Hilfe von KI. Eine Art Aufrüstungsspirale. Sehen Sie die Forschenden in der Verantwortung? Die meisten Anwendungen von KI sind nützlich und hilfreich, zum Beispiel im Medizinbereich. Es ist wirklich schwer, sich von solchen Entwicklungen völlig loszulösen. Aber trotzdem sollte man versuchen, als Wissenschaftler keine Tötungsmaschinen herzustellen. Besonders kritisch wird es natürlich, wenn es nicht nur um die Tötung einzelner geht, sondern um Entwicklungen, die Auswirkungen auf eine große Anzahl von Menschen haben. Um mal beim Beispiel der Tötungsmaschine zu bleiben: Die nutzt, sagen wir, eine Gesichtserkennungssoftware, die für zivile Zwecke entwickelt wurde. Dann aber greift ein autonomes Waffensystem genau auf diese Software zurück. Kann man den an der Entwicklung der Gesichtserkennungssoftware beteiligten Forschenden überhaupt den Vorwurf machen, dass sie die Konsequenzen ihrer eigenen Handlungen nicht mitbedenken? Wenn Sie als Wissenschaftler an sowas forschen, müssen sie nicht davon ausgehen, dass es negativ eingesetzt wird. Da liegt halt die Verantwortung bei denen, die die Tötungsmaschinen bauen, unter Ver10

wendung von KI-Technologien. Man kann das nicht grundsätzlich verhindern. Bei dem im März 2023 veröffentlichten Brief des Future of Life Institute, bei dem namhafte KI-Forschende ein sechsmonatiges Forschungsmoratorium im Bereich KI-Entwicklung fordern, wurden Begriffe wie zivil und militärisch meines Wissens gar nicht benutzt. Da wurde pauschal gesagt: Hier darf jetzt gar nicht mehr geforscht werden. Wie bewerten Sie das? Bei diesem Aufruf, den ich auch unterschrieben habe, ging es nicht um militärische Anwendungen, sondern die Befürchtung war, dass die KI eine Leistungsfähigkeit erlangt, die dann nicht mehr gut zu kontrollieren ist. ChatGPT 4 ist schon sehr leistungsfähig, sowohl im Umgang mit natürlicher Sprache und der Beantwortung von Fragen, als auch bei der Unterstützung der Programmierung, was es auch sehr gut kann. Die Befürchtung ist, dass man nicht so genau weiß, was das alles für Implikationen für uns Menschen hat, für unsere Arbeitsweise und Ausbildung. Es entstehen da neue Abhängigkeiten. Im Fall einer „Superintelligenz“ eventuell eine Informationsdominanz. Dann ist das System nicht mehr kontrollierbar. Aber haben die Akteure, die so einen Forschungsstopp fordern, darunter die CEOs von großen Tech-Unternehmen, nicht auch ein Eigeninteresse? Denken die sich nicht: ‚Hey, wir wollen nicht, dass Ihr uns einholt. Also fordern wir jetzt einfach mal einen Forschungsstopp?‘ Damit macht man sich und seine Arbeit natürlich auch irgendwie gesellschaftlich relevant.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.