アシロマの原則
これらの原則は、2017年アシロマ会議(ビデオはこちら)に関連して、こちらに記載されているプロセスを通じて策定されました。
Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen: Englisch
Chinesisch
Deutsch
Koreanisch
Russisch![]()
世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。
研究課題
1) Forschungsziel:Das Ziel der Forschung sollte eine künstliche Intelligenz sein, die nicht chaotisch, sondern nützlich ist.
2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。
- 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
- 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
- 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
- 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。
3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。
4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。
5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。
倫理と価値
6) Sicherheit:Künstliche Intelligenzsysteme sollten während ihrer gesamten Lebensdauer sicher und robust sein und in einem anwendbaren und realistischen Umfang verifiziert werden.
7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。
8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。
9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。
10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。
11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。
12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。
13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。
14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。
15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。
16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。
17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。
18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。
長期的な課題
19) Vorsicht hinsichtlich der Fähigkeiten: Solange kein Konsens besteht, sollte man es vermeiden, starke Annahmen über die Obergrenze der Fähigkeiten zukünftiger künstlicher Intelligenz zu treffen.
20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。
21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。
22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。
23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。
Danksagung: Wir bedanken uns für die Unterstützung bei der japanischen Übersetzungdurch Herrn Hiroshi Yamakawa und alle Mitarbeiter der NPO-Organisation „All Brain Architecture Initiative“sowie Frau Ayako Fukui (Araya Co., Ltd.).
今日まで、この原則には1,197名の AI・ロボット工学研究者たちが署名し、その他2,320名が署名しています。(これらの原則がどのように策定されたかについては こちら で、そしてその議論への参加は こちらをご覧ください。)署名リストは英語版をご覧ください。
Wie funktioniert die Überprüfung?
- Deklarations-URL - Diese Person hat eine öffentliche Erklärung zur Unterzeichnung des offenen Briefes abgegeben, die online eingesehen werden kann.

