Zum Inhalt springen
Alle offenen Briefe

AI-Prinzipien Japanisch

Veröffentlicht
2 August, 2017

アシロマの原則

これらの原則は、2017年アシロマ会議(ビデオはこちら)に関連して、こちらに記載されているプロセスを通じて策定されました。

Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen:  Englisch Chinesisch   Deutsch Koreanisch     Russisch

世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。

研究課題


1) Forschungsziel:Das Ziel der Forschung sollte eine künstliche Intelligenz sein, die nicht chaotisch, sondern nützlich ist.

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

  • 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
  • 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
  • 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
  • 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値


6) Sicherheit:Künstliche Intelligenzsysteme sollten während ihrer gesamten Lebensdauer sicher und robust sein und in einem anwendbaren und realistischen Umfang verifiziert werden.

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題


19) Vorsicht hinsichtlich der Fähigkeiten: Solange kein Konsens besteht, sollte man es vermeiden, starke Annahmen über die Obergrenze der Fähigkeiten zukünftiger künstlicher Intelligenz zu treffen.

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。


Danksagung: Wir bedanken uns für die Unterstützung bei der japanischen Übersetzungdurch Herrn Hiroshi Yamakawa und alle Mitarbeiter der NPO-Organisation „All Brain Architecture Initiative“sowie Frau Ayako Fukui (Araya Co., Ltd.).

今日まで、この原則には1,197名の AI・ロボット工学研究者たちが署名し、その他2,320名が署名しています。(これらの原則がどのように策定されたかについては こちら で、そしてその議論への参加は こちらをご覧ください。)署名リストは英語版をご覧ください。

OFFENE BRIEFE

Verwandte Beiträge

Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
Unterzeichner
Versteckt

Die Pro-Human-KI-Erklärung

Während Unternehmen um die Einführung von KI wetteifern, steht die Menschheit vor einer Weggabelung: Entweder werden Menschen in immer mehr Bereichen ersetzt, wodurch Macht in Institutionen konzentriert wird, die keiner Rechenschaftspflicht unterliegen – oder es wird ein besserer Weg eingeschlagen, auf dem vertrauenswürdige KI das menschliche Potenzial fördert, Würde und Freiheit schützt und Gemeinschaften stärkt. Eine breite Koalition fordert, dass KI der Menschheit dient und nicht umgekehrt.
24 März, 2026
Unterzeichner
134015

Erklärung zur Superintelligenz

Wir fordern ein Verbot der Entwicklung von Superintelligenz, das erst dann aufgehoben werden darf, wenn (1) ein breiter wissenschaftlicher Konsens darüber besteht, dass dies sicher und kontrollierbar geschieht, und (2) die Öffentlichkeit dafür eintritt.
22 September, 2025
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023

Abonnieren Sie den FLI Newsletter

Melden Sie sich an und erhalten Sie wie über 70.000 andere regelmäßig Neuigkeiten zu unserer Arbeit und unseren Schwerpunkten.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram