Zum Inhalt springen
Alle offenen Briefe

Die Asilomar-KI-Prinzipien

Die Asilomar-KI-Prinzipien, die durch das FLI koordiniert und auf der Konferenz zu nutzbringender KI 2017 entwickelt wurden, sind eine der ersten und einflussreichsten Aufzählungen von KI-Governance-Prinzipien.
Veröffentlicht
11 August, 2017

Die Prinzipien wurden in Verbindung mit der Asilomar-Konferenz 2017(Videos hier) im Rahmen des hier beschriebenen Prozesses entwickelt.

Klicken Sie hier, um diese Seite in anderen Sprachen zu lesen:  Chinesisch    Deutsch Japanisch    Koreanisch     Russisch

Künstliche Intelligenz hat bereits nützliche Tools hervorgebracht, die von Menschen auf der ganzen Welt tagtäglich genutzt werden. Ihre weitere Entwicklung wird in den kommenden Jahrzehnten und Jahrhunderten erstaunliche Möglichkeiten bieten, den Menschen zu helfen und sie zu ermächtigen, wenn sie sich an den folgenden Grundsätzen orientiert.

Belange der Forschung

1) Forschungsziel: Das Ziel von KI-Forschung sollte es sein, konstruktive und nicht ziellose, unkontrollierte Intelligenz zu schaffen.

2) Finanzierung der Forschung: Investitionen in KI sollten mit der Finanzierung von Forschungsarbeiten einhergehen, die den konstruktiven Einsatz der KI gewährleisten. Dabei müssen auch heikle Fragen in den Bereichen Informatik, Wirtschaft, Recht, Ethik und Sozialwissenschaft gestellt werden, wie etwa:

  • Wie können wir künftige KI-Systeme so robust machen, dass sie tun, was wir wollen, ohne zu versagen oder gehackt zu werden?
  • Wie können wir unseren Wohlstand durch Automatisierung steigern und gleichzeitig die sinnstiftenden Elemente und Ressourcen der Menschen erhalten?
  • Wie können wir unsere Rechtssysteme aktualisieren, um fairer und effizienter zu werden, mit der KI Schritt zu halten und die mit KI verbundenen Risiken zu bewältigen?
  • Nach welchen Werten sollte KI ausgerichtet sein, und welchen rechtlichen und ethischen Status sollte sie haben?

3) Verbindung zwischen Wissenschaft und Politik: KI-Forscher und politische Entscheidungsträger sollten in gesundem, konstruktivem Austausch stehen.

4) Forschungskultur: Unter KI-Forschern und Entwicklern sollte eine Kultur der Zusammenarbeit, des Vertrauens und der Transparenz gefördert werden.

5) Vermeidung eines Wettrennens: Teams, die KI-Systeme entwickeln, sollten aktiv kooperieren, um zu vermeiden, dass an Sicherheitsstandards gespart wird.

Ethik und Werte

6) Sicherheit: KI-Systeme sollten während ihrer gesamten Betriebsdauer sicher und geschützt sein, und zwar nachweislich, woimmer dies möglich und machbar ist.

7) Fehlertransparenz: Wenn ein KI-System Schaden anrichtet, sollte es möglich sein, die Gründe dafür zu ermitteln.

8) Rechtliche Transparenz: Jede Beteiligung eines autonomen Systems an gerichtlichen Entscheidungen sollte eine zufriedenstellende Erklärung liefern können, die von einer kompetenten menschlichen Behörde überprüft werden kann.

9) Verantwortung: Die Entwickler und Konstrukteure fortschrittlicher KI-Systeme sind an den moralischen Auswirkungen ihrer Nutzung, ihres Missbrauchs und ihrer Handlungen beteiligt und haben die Verantwortung, sowie die Möglichkeit, diese Auswirkungen zu gestalten.

10) Ausrichtung nach Werten: Hochgradig autonome KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten während ihres gesamten Betriebs verlässlich mit menschlichen Werten in Einklang gebracht werden können.

11) Menschliche Werte: KI-Systeme sollten so konzipiert und betrieben werden, dass sie mit Idealen wie Menschenwürde, Rechten und Freiheiten sowie kultureller Vielfalt vereinbar sind.

12) Persönliche Privatsphäre: Menschen sollten das Recht haben, auf die von ihnen erzeugten Daten zuzugreifen, sie zu verwalten und zu kontrollieren, da KI-Systeme die Macht haben, diese Daten zu analysieren und zu nutzen.

13) Freiheit und Privatsphäre: Die Anwendung von KI auf personenbezogene Daten darf die faktische oder wahrgenommene Freiheit der Menschen nicht unangemessen einschränken.

14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich zugute kommen und sie ermächtigen.

15) Geteilter Wohlstand: Der durch KI geschaffene wirtschaftliche Wohlstand sollte von der breiten Gesellschaft geteilt werden, damit die gesamte Menschheit davon profitiert.

16) Menschliche Kontrolle: Der Mensch sollte entscheiden, wie und ob er Entscheidungen an KI-Systeme delegiert, um von ihm gewählte Ziele zu erreichen.

17) Sicherheit vor Untergrabung: Die durch die Kontrolle hochentwickelter KI-Systeme übertragene Macht sollte die sozialen und zivilen Prozesse, von denen das Wohlergehen der Gesellschaft abhängt, respektieren und verbessern, anstatt sie zu untergraben.

18) KI-Wettrüsten: Ein Wettrüsten mit tödlichen autonomen Waffen sollte vermieden werden.

Längerfristige Probleme

19) Vorsicht gegenüber KI-Fähigkeiten: Da es keinen Konsens darüber gibt, sollten wir starke Annahmen zu Obergrenzen für die Fähigkeiten zukünftiger KI vermeiden.

20) Wichtigkeit: Fortgeschrittene künstliche Intelligenz könnte einen tiefgreifenden Wandel in der Geschichte des Lebens bedeuten und sollte mit angemessener Sorgfalt und reichlich Ressourcen geplant und gesteuert werden.

21) Risiken: Für die von KI-Systemen ausgehenden Risiken, insbesondere katastrophale oder existenzielle Risiken, muss entsprechend ihrer erwarteten Auswirkungen Planungs- und Minderungsaufwand betrieben werden.

22) Rekursive Selbstverbesserung: KI-Systeme, die für eine rekursive Selbstverbesserung oder Selbstreplikation in einer Weise konzipiert sind, die zu einer rasch steigenden Qualität oder Quantität des Outputs führen könnte, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.

23) Gemeinwohl: Superintelligenz sollte nur im Dienste weithin geteilter ethischer Ideale und zum Nutzen der gesamten Menschheit und nicht nur eines Staates oder einer Organisation entwickelt werden.

Tragen Sie Ihren Namen in die Liste ein

Zeigen Sie Ihre Unterstützung für diesen offenen Brief, indem Sie Ihre eigene Unterschrift auf die Liste setzen:

Unterschriften korrigieren

Wenn Sie glauben, dass Ihre Unterschrift fälschlicherweise hinzugefügt wurde, oder wenn Sie andere Bedenken bezüglich des Erscheinungsbildes haben, wenden Sie sich bitte an letters@futureoflife.blackfin.biz.

Unterzeichner

Bislang wurden die Grundsätze unterzeichnet von 1200 KI/Robotik-Forschern und 2342 anderen. Erfahren Sie, wie die Grundsätze entwickelt wurden hier und beteiligen Sie sich an der Diskussion.
hierHier finden Sie die vollständige Liste der Unterzeichner hierDie Liste der Unterzeichner umfasst:

KI/Robotik-Forscher:

Sie müssen Javascript aktivieren, um die Unterzeichner des offenen Briefes zu sehen.

Andere Unterzeichner:

Sie müssen Javascript aktivieren, um die Unterzeichner des offenen Briefes zu sehen.
Mehr anzeigen
OFFENE BRIEFE

Verwandte Beiträge

Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023
Unterzeichner
31810

Große KI-Experimente stoppen: Ein offener Brief

Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu pausieren.
22 März, 2023
Unterzeichner
998

Offener Brief Gegen Rücksichtslose Nukleare Eskalation und Nutzung

Der fürchterliche Krieg in der Ukraine hat das Potenzial, zu einem umfassenden nuklearen Konflikt zwischen der NATO und Russland zu eskalieren, der die größte Katastrophe in der Geschichte der Menschheit wäre. Es muss mehr getan werden, um eine solche Eskalation zu verhindern.
18 Oktober, 2022

Abonnieren Sie den Newsletter des Future of Life Institutes.

Schließen Sie sich den über 40.000 anderen an, die regelmäßig über unsere Arbeit und Schwerpunktbereiche informiert werden.
WolkeLupeKreuzPfeil-nach-oben
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram