Zum Inhalt springen
Alle offenen Briefe

AI-Prinzipien Russisch

Veröffentlicht
13 September, 2017

ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ

 Принципы работы с ИИ были разработаны в ходе конференции в Асиломаре (Калифорния, США), прошедшей в 2017 году(видео с конференции). Здесь описан процесс их создания.

Klicken Sie hier, um diese Seite in anderen Sprachen zu sehen: Englisch US_Flagge Chinesisch   Deutsch Japanisch    Koreanisch   

Искусственный интеллект уже сделал возможным создание инструментов, по всему миру приносящих пользу тем, кто ими пользуется. Дальнейшая разработка ИИ в соответствии с представленными ниже принципами может открыть удивительные возможности для помощи людям на десятилетия и даже века вперед.

Область исследований


1)Ziel der Forschung:Das Ziel der KI-Forschung sollte nicht darin bestehen, einen sinnlosen Verstand zu schaffen, sondern Systeme, die darauf ausgerichtet sind, der Menschheit Nutzen zu bringen.

2) Финансирование исследований: инвестиции в ИИ должны сопровождаться субсидированием исследований, направленных на поиск полезных способов применения ИИ, в контексте которых расссматриваются непростые вопросы из области компьютерных наук, экономики, права, этики и социальных наук. Некоторые из таких вопросов:

  • Как обеспечить надежность будущего ИИ таким образом, чтобы системы выполняли свою программу, не подвергаясь угрозе сбоев и хакерских атак?
  • Как повысить уровень благосостояния с помощью автоматизации процессов, не сократив при этом уровень человеческого труда и сохранив его назначение?
  • Как, сделав правовую систему более эффективной и справедливой, модифицировать е в соответствии с развитием ИИ и учесть все правовые риски, связанные с его использованием?
  • Какие ценностные ориентиры должны лежать в основе ИИ и каким правовым и моральным статусом он должен обладать?

3) Диалог ученых и политических деятелей: необходим конструктивный и здоровый диалог между исследователями ИИ и политическим руководством.

4) Культура отношений в исследовательском сообществе: среди исследователей и разработчиков систем ИИ должна пощряться культура взаимодействия, доверия и открытости.

5) Отсутствие конкуренции: команды разработчиков ИИ должны активно взаимодействовать друг с другом во избежание ненадлежащего исполнения стандартов безопасности.

Этика и ценности


6)Sicherheit: KI-Systeme müssen während ihrer gesamten Betriebsdauer sicher und geschützt sein, und in Situationen, in denen dies sinnvoll ist, muss der reguläre Betrieb der KI leicht überprüfbar sein.

7) Открытость сбоев в системе: если система ИИ причиняет вред, должна быть возможность выяснить причину.

8) Открытость системе правосудия: любое участие автономной системы ИИ в принятии судебного решения должно быть удовлетворительным образом обосновано и доступно для проверки компетентным органами.

9) Ответственность: разработчики и создатели продвинутых систем ИИ напрямую заинтересованы в моральной стороне последствий использования, злоупотребления и действий ИИ, и именно на их плечах лежит ответственость за формирование подобных последствий.

10) Синхронизация ценностей: системы ИИ с высокой степенью автономности должны быть разработаны таким образом, чтобы их цели и поведение были согласованы с человеческими ценностями на всем протяжении работы.

11) Человеческие ценности: устройство и функционирование систем ИИ должно быть согласовано с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

12) Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль, при наличи у систем ИИ возможности анализа и использования этих данных.

13) Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей.

14) Совместная выгода: технологии ИИ должны приносить пользу максимально возможному числу людей.

15) Совместное процветание: экономические блага, созданные при помощи ИИ, должны получить широкое распространение ради принесения пользы всему человечеству.

16) Контроль ИИ человеком: люди должны определять процедуру и степень необходимости передачи системе ИИ функциии принятия решений для выполнения целей, поставленных человеком.

17) Устойчивость систем: те, кто обладает влиянием, управляя продвинутыми системами ИИ, должны уважать и улучшать общественные процессы, от которых зависит здоровье социума, а не подрывать таковые.

18) Гонка вооружений в области ИИ: стоит избегать гонки вооружений в области автономного летального оружия.

Долгосрочная перспектива


19)Gefahr der Unterschätzung der Möglichkeiten: Man sollte sichere Annahmen hinsichtlich der Obergrenze der Möglichkeiten der KI der Zukunft vermeiden, insbesondere wenn kein Konsens zu diesem Thema besteht.

20) Важность: продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности.

21) Риски: потенциальные риски, связанные с системами ИИ, особенно опасность катастроф или угроза существованию жизни в целом, должны купироваться действиями по планированию и смягчению рисков, соразмерными возможному масштабу воздействия.

22) Рекурсивное автообучение: системы ИИ, разработанные для улучшения эффективности собственных алгоритмов и самовоспроизведения, ведущего к быстрому изменению качества и количества, должны быть объектом применения мер жесткого регулирования и контроля.

23) Всеобщее благо: сверхразум должен быть разработан исключительно в целях, соответствующих большинству этических идеалов и для пользы всего человечества, а не одного государства или организации.

OFFENE BRIEFE

Verwandte Beiträge

Wenn Ihnen dieser Artikel gefallen hat, könnten Sie auch diese interessieren:
Unterzeichner
Versteckt

Die Pro-Human-KI-Erklärung

Während Unternehmen um die Einführung von KI wetteifern, steht die Menschheit vor einer Weggabelung: Entweder werden Menschen in immer mehr Bereichen ersetzt, wodurch Macht in Institutionen konzentriert wird, die keiner Rechenschaftspflicht unterliegen – oder es wird ein besserer Weg eingeschlagen, auf dem vertrauenswürdige KI das menschliche Potenzial fördert, Würde und Freiheit schützt und Gemeinschaften stärkt. Eine breite Koalition fordert, dass KI der Menschheit dient und nicht umgekehrt.
24 März, 2026
Unterzeichner
134015

Erklärung zur Superintelligenz

Wir fordern ein Verbot der Entwicklung von Superintelligenz, das erst dann aufgehoben werden darf, wenn (1) ein breiter wissenschaftlicher Konsens darüber besteht, dass dies sicher und kontrollierbar geschieht, und (2) die Öffentlichkeit dafür eintritt.
22 September, 2025
Unterzeichner
2672

Offener Brief, in dem Staats- und Regierungschefs aufgefordert werden, ihre Führungsrolle bei existenziellen Risiken mit Weitblick wahrzunehmen.

Die Elders, Future of Life Institute und eine Vielzahl von Mitunterzeichnern fordern Entscheidungsträger auf, sich dringend mit den anhaltenden Auswirkungen und eskalierenden Risiken der Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI auseinanderzusetzen.
14 Februar, 2024
Unterzeichner
Geschlossen

KI-Lizenzierung für eine bessere Zukunft: Über die Bewältigung gegenwärtiger Schäden und neuer Bedrohungen

Dieser gemeinsame offene Brief von Encode Justice und dem Future of Life Institute fordert die Umsetzung dreier konkreter politischer Maßnahmen in den USA, um aktuelle und zukünftige Schäden durch KI zu adressieren.
25 Oktober, 2023

Abonnieren Sie den FLI Newsletter

Melden Sie sich an und erhalten Sie wie über 70.000 andere regelmäßig Neuigkeiten zu unserer Arbeit und unseren Schwerpunkten.
WolkeLupeKreuzPfeil-nach-oben linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram