Skip to content
All Open Letters

Open Letter on Autonomous Weapons German

Published
March 15, 2019


Dieser offene Brief wurde am 28. Juli bei der Eröffnung der IJCAI (International Joint Conference on Artificial Intelligence) Konferenz 2015 verlesen. Die Presseerklärung dazu ist für Journalisten über Toby Walsh erhältlich.

Das FLI unterstützt die Bereitstellung, die Unterschriftenprüfung und die Verwaltung der Liste der Unterzeichner. Bei administrativen Fragen zum Brief wenden Sie sich bitte an Max Tegmark.

AUTONOME WAFFEN: EIN OFFENER BRIEF VON KI- & ROBOTIK-FORSCHERN


Click here to see this page in other languages: English  Japanese   Russian

Autonome Waffen wählen und bekämpfen Ziele ohne menschliches Eingreifen. Dazu gehören z.B. bewaffnete Quadrokopter, die nach Menschen suchen und sie eliminieren, wenn sie bestimmte vordefinierte Kriterien erfüllen. Nicht dazu gehören dagegen Lenkraketen oder ferngesteuerte Drohnen, bei denen Menschen die Entscheidung über das Ziel treffen. Technologien mit künstlicher Intelligenz (KI) sind an einem Punkt angelangt, an dem die Entwicklung solcher Systeme — zumindest praktisch, wenn auch nicht legal — innerhalb von Jahren und nicht Jahrzehnten möglich ist. Und es steht einiges auf dem Spiel: Autonome Waffen wurden nach Schießpulver und Atomwaffen als die dritte Revolution in der Kriegsführung beschrieben.

Es wurden bereits viele Argumente für und gegen autonome Waffen vorgebracht, zum Beispiel dass es gut ist, dass menschliche Soldaten durch Maschinen ersetzt werden, da dadurch die Verluste für den Eigentümer der Waffen geringer werden. Dies ist gleichzeitig auch ein Argument gegen diese Waffen, da dadurch die Hemmschwelle gesenkt wird, in den Kampf einzutreten. Die Schlüsselfrage für die Menschheit ist heute, ob der globale Wettlauf um KI-Waffen gestartet oder sein Start verhindert werden sollte. Wenn eine der militärischen Großmächte die Entwicklung von KI-Waffen vorantreibt, ist ein globaler Rüstungswettlauf praktisch unvermeidlich. Und der Endpunkt dieser technologischen Reise ist offensichtlich: Autonome Waffen werden die Kalaschnikows von morgen werden. Anders als Atomwaffen benötigen sie keine kostspieligen und schwer zu beschaffenden Ausgangsstoffe, also werden sie allgegenwärtig und für alle maßgeblichen Militärmächte günstig zu produzierende Massenware werden. Es wird nur eine Frage der Zeit sein, bis sie auf dem Schwarzmarkt auftauchen. Dann werden sie bei Terroristen landen, oder bei Diktatoren, die ihr Volk besser kontrollieren wollen, oder bei Warlords, die ethnische Säuberungen durchführen wollen. Autonome Waffen sind ideal geeignet für Missionen wie Attentate, die Destabilisierung von Nationen, die Unterdrückung von Bevölkerungen und die selektive Tötung einer bestimmten ethnischen Gruppe. Wir glauben daher, dass ein Wettlauf des Militärs um die Nutzung von KI-Waffen der Menschheit nicht zu Gute kommen würde. KI kann Schlachtfelder auf viele Weisen sicherer für Menschen – insbesondere für Zivilisten – machen, ohne dabei neue Werkzeuge zum Töten zu erschaffen.

So wie die meisten Chemiker und Biologen kein Interesse am Bau chemischer oder biologischer Waffen haben, haben die meisten KI-Forscher kein Interesse daran, KI-Waffen zu bauen — und sie wollen nicht, dass andere der Reputation ihres Feldes schaden, indem sie genau dies tun und damit für eine öffentliche Gegenbewegung sorgen könnten, die den zukünftigen gesellschaftlichen Nutzen von KI einschränkt. Tatsächlich fanden internationale Abkommen, die zum erfolgreichen Verbot chemischer und biologischer Waffen führten, breite Unterstützung bei Chemikern und Biologen. In ähnlicher Weise unterstützten die meisten Physiker die Abkommen zum Verbot von weltraumbasierten Atomwaffen und Laser-Blendwaffen.

Zusammenfassend glauben wir, dass KI ein großes Potential hat, der Menschheit zu Gute zu kommen und dass dies auch das Ziel dieses Forschungsgebietes sein sollte. Einen militärischen Wettlauf um KI-Waffen zu beginnen ist eine schlechte Idee und sollte durch ein Verbot autonomer Angriffswaffen, die nicht von Menschen gesteuert werden, unterbunden werden.

Signatories

Bis jetzt wurde der offene Brief von 4.502 KI-/Robotik-Forschern und 26215 anderen unterschrieben. Dazu zählen:

KI-/Robotik-Forscher:


Stuart Russell Berkeley, Professor für Computer Science, Leiter des Center for Intelligent Systems, und Co-Autor des Standard-Lehrbuchs „Künstliche Intelligenz"
Nils J. Nilsson, Fachbereich Computer Science, Stanford University, Kumagai Professor für Engineering, Emeritus, ehemaliger Präsident der AAAI
Barbara J. Grosz Harvard University, Higgins Professor für Naturwissenschaften, ehemalige Präsidentin der AAAI, ehemalige Vorsitzende des Kuratoriums des IJCAI
Tom Mitchell CMU, ehemaliger Präsident der AAAI, Professor und Vorsitzender der Fakultät Maschinelles Lernen an der Fredkin University
Eric Horvitz, Microsoft Research, Geschäftsführer, Microsoft Research, ehemaliger Präsident der AAAI, Mitvorsitzender des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied des ACM, IEEE CIS
Martha E. Pollack University of Michigan, Provost, Professorin für Computer Science & Professorin für Informatik, ehemalige Präsidentin der AAAI, Fellow von AAAS, ACM & AAAI
Henry Kautz, University of Rochester, Professor für Computer Science, ehemaliger Präsident der AAAI, Mitglied der ACM
Demis Hassabis, Google DeepMind, CEO
Yann LeCun, New York University & Facebook KI-Forscher, Professor für Computer Science & Leiter der KI-Forschung
Oren Etzioni, Allen Institute for AI, CEO, Mitglied von AAAI, ACM
Peter Norvig, Google, Research Director, Mitglied von AAAI, ACM
Geoffrey Hinton University of Toronto und Google, Emeritus Professor, AAAI Fellow
Yoshua Bengio, Université de Montréal, Professor
Erik Sandewall, Linköping University, Schweden, Professor für Computer Science, Mitglied von AAAI, ACM, Swedish Artificial Intelligence Society
Francesca Rossi Padova & Harvard, Professorin für Computer Science, IJCAI Präsidentin und Mitvorsitzende des AAAI Komitee zum Einfluss von KI und ethischen Fragen, Mitglied der ACM
Bart Selman Cornell, Professor für Computer Science, Mitvorsitzender des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied der ACM
Joseph Y. Halpern, Cornell, Professor, Mitglied von AAAI, ACM, IEEE
Richard S. Sutton Univ. of Alberta, Professor für Computer Science und Autor des Lehrbuches „Reinforcement Learning: An Introduction“
Toby Walsh Univ. of New South Wales & NICTA, Professor für KI und Präsident der AI Access Foundation
David C. Parkes David Parkes, Harvard University, Dekan des Fachbereichs Computer Science, Vorsitzender ACM SIGecom, AAAI Fellow und Mitglied des Präsidialausschusses für langfristige KI-Zukunft des AAAI, Mitglied von ACM
Berthold K.P. Horn, MIT EECS & CSAIL, Professor EECS, Mitglied von AAAI, IEEE CS
Gerhard Brewka, Universität Leipzig, Professor für Intelligent Systems, ehemaliger Präsident des ECCAI, Mitglied von AAAI
John S Shawe-Taylor, University CollegeLondon, Professor für Computational Statistics und Machine Learning, Mitglied von IEEE CS
Hector Levesque, University of Toronto, Professor Emeritus, Ehemaliger Präsident des IJCAI, Mitglied von AAAI
Ivan Bratko, University of Ljubljana, Professor für Computer Science, ECCAI Fellow, Mitglied von SLAIS
Pierre Wolper, University of Liège, Professor für Computer Science, Mitglied von AAAI, ACM, IEEE CS
Bonnie Webber, University of Edinburgh, Professor für Informatik, Mitglied von AAAI, Association for Computatiznal Linguistics
Ernest Davis, New York University, Professor für Computer Science, Mitglied von AAAI, ACM
Mary-Anne Williams, University of Technology Sydney, Gründerin und Leiterin, Innovation and Enterprise Lab (The Magic Lab); ACM Kommitee Eugene L. Lawler Award für humanitäre Verdienste innerhalb von Computer Science und Informatik; Fellow, Australian Computer Society, Mitglied von AAAI, IEEE CIS, IEEE CS, IEEE RAS
Frank van Harmelen, VU University Amsterdam, Professor für Knowledge Representation, ECCAI Fellow, Mitglied von Academia Europeana
Csaba Szepesvari, University of Alberta, Professor für Computer Science, Mitglied von AAAI, ACM
Raja Chatila, CNRS, University Pierre and Marie Curie, Paris, Forscher für Robotik und KI, Mitglied von AAAI, ACM, IEEE CS, IEEE RAS, Präsident IEEE Robotics and Automation Society (Disclaimer: Meine Ansichten sind meine eigenen Ansichten)
Noel Sharkey, University of Sheffield und ICRAC, Emeritus Professor, Mitglied der British Computer Society, Institution of Engineering and Technology UK
Ramon Lopez de Mantaras Artificial Intelligence Research Institute, Spanish National Research Council, Leiter, ECCAI Fellow, ehemaliger Vorsitzender des IJCAI Kuratoriums, Preisträger des AAAI Robert S. Engelmore Memorial Lecture Award
Carla Brodley, Northeastern University, Dekanin und Professorin des College of Computer and Information Science, Mitglied von AAAI, ACM, IEEE CS
Nowe Ann, Vrije Universiteit Brussel, Professorin für Computer Science (AI), ECCAI Vorstandsmitglied, BNVKI Vorsitzende, Mitglied von IEEE CIS, IEEE CS, IEEE RAS
Stefanuk, Vadim, (Moskau) IITP RAS, RUPF, leitender Forscher, Professor für KI bei RUPF, ECCAI Fellow, stellvertretender Vorsitzender von RAAI
Bruno Siciliano, University of Naples Federico II, Professor für Robotik, Fellow von IEEE, ASME, IFAC, ehemaliger Präsident IEEE Robotics and Automation Society
Bernhard Schölkopf, Max-Planck-Institut für Intelligente Systeme, Direktor, Mitglied des ACM, IEEE CIS, der Vorstände von IMLS & NIPS
Mustafa Suleyman, Google DeepMind, Mitbegründer & Leiter von Applied AI
Juergen Schmidhuber, The Swiss AI Lab IDSIA, USI & SUPSI, Professor für Künstliche Intelligenz
Dileep George, Vicarious, Mitbegründer
D. Scott Phoenix, Vicarious, Mitbegründer
Ronald J. Brachman, Yahoo, leitender Wissenschaftler und Leiter der Yahoo Labs, Mitglied von AAAI, ACM, ehemaliger Präsident der AAAI, ehemaliger Sekretär und Schatzmeister der IJCAI, Inc., Fellow von AAAI, ACM, und IEEE.
Jay Tuck, Airtime Dubai, Journalist, Fernsehproduzent, Autor
Mike Hinchey, International Federation for Information Processing (IFIP) im Namen der IFIP Generalversammlung, Präsident, Mitglied von ACM, IEEE CIS, IEEE CS, IFIP

Other Endorsers:


Stephen Hawking Forschungsleiter am Department of Applied Mathematics and Theoretical Physics in Cambridge, 2012 Fundamental Physics Prize-Preisträger für seine Arbeit im Bereich der Quantenphysik
Elon Musk SpaceX, Tesla, Solar City
Steve Wozniak, Apple Inc., Mitbegründer, Mitglied von IEEE CS
Jaan Tallinn Mitbegründer von Skype, CSER und FLI
Frank Wilczek MIT, Professor für Physik, Nobelpreisträger für seine Arbeit zur starken Kernkraft
Max Tegmark MIT, Professor für Physik, Mitbegründer des FLI
Daniel C. Dennett, Tufts University, Professor, Co-Direktor, Center for Cognitive Studies, Mitglied von AAAI
Noam Chomsky MIT, Institute Professor Emeritus, Einführungsmitglied in die IEEE Intelligent Systems Hall of Fame, Träger der Franklin Medaille in Computer and Cognitive Science
Barbara Simons IBM Research (im Ruhestand), ehemalige Präsidentin ACM, ACM Fellow, AAAS Fellow
Stephen Goose Leiter der Human Rights Watch's Arms Division
Anthony Aguirre, UCSC, Professor für Physik, Mitbegründer des FLI
Lisa Randall, Harvard, Professor für Physik
Martin Rees Mitbegründer des CSER und Astrophysiker
Susan Holden Martin, Lifeboat Foundation, Beirat, Robotik/KI
Peter H. Diamandis, XPRIZE Foundation, Vorstand & CEO
Hon. Jean Jacques Blais, Gründungsvorstand, Pearson Peacekeeping Center, ehemaliger Verteidigungsminister von Kanada (1982-83)
Jennifer M Gidley, Präsident, World Futures Studies Federation, Zukunftsforscherin und Psychologin
Jack Dorsey, Twitter, Square, CEO

Die komplette Liste der Unterzeichner kann hier eingesehen werden.
Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Carta aberta convocando os líderes mundiais a demonstrarem liderança com visão de longo prazo em relação às ameaças existenciais

O The Elders, Future of Life Institute e uma gama diversificada de cossignatários solicitam aos decisores uma abordagem urgente aos impactos contínuos e riscos crescentes da crise climática, pandemias, armas nucleares e da IA não governada.
February 14, 2024
Signatories
1

Offener Brief, der die Staatsoberhäupter und Führungskräfte der Welt auffordert, bei existenziellen Bedrohungen eine langfristig ausgerichtete Führungsrolle zu übernehmen

The Elders, das Future of Life Institute und eine vielfältige Gruppe von Mitunterzeichnenden fordern Entscheidungsträger und Entscheidungsträgerinnen dazu auf, die andauernden Auswirkungen und eskalierenden Risiken von Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI dringend anzugehen.
February 14, 2024
Signatories
1

رسالة مفتوحة تدعو قادة العالم إلى إظهار قيادة بعيدة النظر بشأن التهديدات الوجودية

يحث الشيوخ ومعهد مستقبل الحياة ومجموعة متنوعة من الموقعين المشاركين صناع القرار على معالجة التأثير المستمر والمخاطر المتصاعدة لأزمة المناخ والأوبئة والأسلحة النووية والذكاء الاصطناعي غير الخاضع للحكم بشكل عاجل.
February 14, 2024
Signatories
1

Lettre ouverte appelant les dirigeants mondiaux à faire preuve de leadership à long terme face aux menaces existentielles

Les Elders, le Future of Life Institute et une gamme diversifiée de cosignataires exhortent les décideurs à aborder de toute urgence à l’impact continu et les risques croissants de la crise climatique, des pandémies, des armes nucléaires et de l’IA non gouvernée.
February 14, 2024

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram