Die Asilomar-KI-Prinzipien
Die Prinzipien wurden in Verbindung mit der Asilomar-Konferenz 2017(Videos hier) im Rahmen des hier beschriebenen Prozesses entwickelt.
Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen: Chinesisch Deutsch
Japanisch
Koreanisch
Russisch
Künstliche Intelligenz hat bereits nützliche Tools hervorgebracht, die von Menschen auf der ganzen Welt tagtäglich genutzt werden. Ihre weitere Entwicklung wird in den kommenden Jahrzehnten und Jahrhunderten erstaunliche Möglichkeiten bieten, den Menschen zu helfen und sie zu ermächtigen, wenn sie sich an den folgenden Grundsätzen orientiert.
Belange der Forschung
1) Forschungsziel: Das Ziel von KI-Forschung sollte es sein, konstruktive und nicht ziellose, unkontrollierte Intelligenz zu schaffen.
2) Finanzierung der Forschung: Investitionen in KI sollten mit der Finanzierung von Forschungsarbeiten einhergehen, die den konstruktiven Einsatz der KI gewährleisten. Dabei müssen auch heikle Fragen in den Bereichen Informatik, Wirtschaft, Recht, Ethik und Sozialwissenschaft gestellt werden, wie etwa:
- Wie können wir künftige KI-Systeme so robust machen, dass sie tun, was wir wollen, ohne zu versagen oder gehackt zu werden?
- Wie können wir unseren Wohlstand durch Automatisierung steigern und gleichzeitig die sinnstiftenden Elemente und Ressourcen der Menschen erhalten?
- Wie können wir unsere Rechtssysteme aktualisieren, um fairer und effizienter zu werden, mit der KI Schritt zu halten und die mit KI verbundenen Risiken zu bewältigen?
- Nach welchen Werten sollte KI ausgerichtet sein, und welchen rechtlichen und ethischen Status sollte sie haben?
3) Verbindung zwischen Wissenschaft und Politik: KI-Forscher und politische Entscheidungsträger sollten in gesundem, konstruktivem Austausch stehen.
4) Forschungskultur: Unter KI-Forschern und Entwicklern sollte eine Kultur der Zusammenarbeit, des Vertrauens und der Transparenz gefördert werden.
5) Vermeidung eines Wettrennens: Teams, die KI-Systeme entwickeln, sollten aktiv kooperieren, um zu vermeiden, dass an Sicherheitsstandards gespart wird.
Ethik und Werte
6) Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer sicher und geschützt sein, und zwar nachweislich, woimmer dies möglich und machbar ist.
7) Fehlertransparenz: Wenn ein KI-System Schaden anrichtet, sollte es möglich sein, die Gründe dafür zu ermitteln.
8) Rechtliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern können, die von einer kompetenten menschlichen Behörde überprüft werden kann.
9) Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind an den moralischen Auswirkungen ihrer Nutzung, ihres Missbrauchs und ihrer Handlungen beteiligt und haben die Verantwortung, sowie die Möglichkeit, diese Auswirkungen zu gestalten.
10) Ausrichtung nach Werten: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs verlässlich mit menschlichen Werten in Einklang gebracht werden können.
11) Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit Idealen wie Menschenwürde, Rechten und Freiheiten sowie kultureller Vielfalt vereinbar sind.
12) Persönliche Privatsphäre: Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme die Macht haben, diese Daten zu analysieren und zu nutzen.
13) Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die faktische oder wahrgenommene Freiheit der Menschen nicht unangemessen einschränken.
14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie ermächtigen.
15) Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte von der breiten Gesellschaft geteilt werden, damit die gesamte Menschheit davon profitiert.
16) Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.
17) Sicherheit vor Untergrabung: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und zivilen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.
18) KI-Wettrüsten: Ein Wettrüsten mit tödlichen autonomen Waffen sollte vermieden werden.
Längerfristige Probleme
19) Vorsicht gegenüber KI-Fähigkeiten: Da es keinen Konsens darüber gibt, sollten wir starke Annahmen zu Obergrenzen für die Fähigkeiten zukünftiger KI vermeiden.
20) Wichtigkeit: Fortgeschrittene künstliche Intelligenz könnte einen tiefgreifenden Wandel in der Geschichte des Lebens bedeuten und sollte mit angemessener Sorgfalt und reichlich Ressourcen geplant und gesteuert werden.
21) Risiken: Für die von KI-Systemen ausgehenden Risiken, insbesondere katastrophale oder existenzielle Risiken, muss entsprechend ihrer erwarteten Auswirkungen Planungs- und Minderungsaufwand betrieben werden.
22) Rekursive Selbstverbesserung: KI-Systeme, die für eine rekursive Selbstverbesserung oder Selbstreplikation in einer Weise konzipiert sind, die zu einer rasch steigenden Qualität oder Quantität des Outputs führen könnte, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
23) Gemeinwohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Nutzen der gesamten Menschheit und nicht nur eines Staates oder einer Organisation entwickelt werden.
Tragen Sie Ihren Namen in die Liste ein
Unterschriften korrigieren
Unterzeichner
hierHier finden Sie die vollständige Liste der Unterzeichner hierDie Liste der Unterzeichner umfasst:
KI/Robotik-Forscher:
Andere Unterzeichner:
Wie funktioniert die Überprüfung?
- Deklarations-URL - Diese Person hat eine öffentliche Erklärung zur Unterzeichnung des offenen Briefes abgegeben, die online eingesehen werden kann.