ПРИНЦИПЫ РАБОТЫ С ИИ, РАЗРАБОТАННЫЕ НА АСИЛОМАРСКОЙ КОНФЕРЕНЦИИ
Принципы работы с ИИ были разработаны в ходе конференции в Асиломаре (Калифорния, США), прошедшей в 2017 году (видео с конференции). Здесь описан процесс их создания.
Click here to see this page in other languages : English Chinese German Japanese Korean
Искусственный интеллект уже сделал возможным создание инструментов, по всему миру приносящих пользу тем, кто ими пользуется. Дальнейшая разработка ИИ в соответствии с представленными ниже принципами может открыть удивительные возможности для помощи людям на десятилетия и даже века вперед.
Область исследований
1) Цель исследования: цель исследований ИИ должна лежать в области создания не бесцельного разума, но систем, направленных на принесение пользы человечеству.
2) Финансирование исследований: инвестиции в ИИ должны сопровождаться субсидированием исследований, направленных на поиск полезных способов применения ИИ, в контексте которых рассматриваются непростые вопросы из области компьютерных наук, экономики, права, этики и социальных наук. Некоторые из таких вопросов:
- Как обеспечить надежность будущего ИИ таким образом, чтобы системы выполняли свою программу, не подвергаясь угрозе сбоев и хакерских атак?
- Как повысить уровень благосостояния с помощью автоматизации процессов, не сократив при этом уровень человеческого труда и сохранив его назначение?
- Как, сделав правовую систему более эффективной и справедливой, модифицировать ее в соответствии с развитием ИИ и учесть все правовые риски, связанные с его использованием?
- Какие ценностные ориентиры должны лежать в основе ИИ и каким правовым и моральным статусом он должен обладать?
3) Диалог ученых и политических деятелей: необходим конструктивный и здоровый диалог между исследователями ИИ и политическим руководством.
4) Культура отношений в исследовательском сообществе: среди исследователей и разработчиков систем ИИ должна поощряться культура взаимодействия, доверия и открытости.
5) Отсутствие конкуренции: команды разработчиков ИИ должны активно взаимодействовать друг с другом во избежание ненадлежащего исполнения стандартов безопасности.
Этика и ценности
6) Безопасность: системы ИИ должны быть безопасны и защищены на протяжении всего срока эскплуатации, а в ситуациях, где это целесообразно, штатная работа ИИ должна быть легко верифицируема.
7) Открытость сбоев в системе: если система ИИ причиняет вред, должна быть возможность выяснить причину.
8) Открытость системе правосудия: любое участие автономной системы ИИ в принятии судебного решения должно быть удовлетворительным образом обосновано и доступно для проверки компетентным органами.
9) Ответственность: разработчики и создатели продвинутых систем ИИ напрямую заинтересованы в моральной стороне последствий использования, злоупотребления и действий ИИ, и именно на их плечах лежит ответственность за формирование подобных последствий.
10) Синхронизация ценностей: системы ИИ с высокой степенью автономности должны быть разработаны таким образом, чтобы их цели и поведение были согласованы с человеческими ценностями на всем протяжении работы.
11) Человеческие ценности: устройство и функционирование систем ИИ должно быть согласовано с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.
12) Защита личных данных: люди должны иметь право на доступ к персональным данным, их обработку и контроль, при наличии у систем ИИ возможности анализа и использования этих данных.
13) Свобода и конфиденциальность: применение систем ИИ к персональным данным не должно безосновательно сокращать реальную или субъективно воспринимаемую свободу людей.
14) Совместная выгода: технологии ИИ должны приносить пользу максимально возможному числу людей.
15) Совместное процветание: экономические блага, созданные при помощи ИИ, должны получить широкое распространение ради принесения пользы всему человечеству.
16) Контроль ИИ человеком: люди должны определять процедуру и степень необходимости передачи системе ИИ функции принятия решений для выполнения целей, поставленных человеком.
17) Устойчивость систем: те, кто обладает влиянием, управляя продвинутыми системами ИИ, должны уважать и улучшать общественные процессы, от которых зависит здоровье социума, а не подрывать таковые.
18) Гонка вооружений в области ИИ: стоит избегать гонки вооружений в области автономного летального оружия.
Долгосрочная перспектива
19) Опасность недооценки возможностей: стоит избегать уверенных предположений относительно верхнего порога возможностей ИИ будущего, особенно в отсутствие консенсуса по этому вопросу.
20) Важность: продвинутый ИИ может повлечь коренные изменения в истории жизни на Земле, и его разработка и управление должны осуществляться при наличии соответствующих ресурсов и в условиях особой тщательности.
21) Риски: потенциальные риски, связанные с системами ИИ, особенно опасность катастроф или угроза существованию жизни в целом, должны купироваться действиями по планированию и смягчению рисков, соразмерными возможному масштабу воздействия.
22) Рекурсивное автообучение: системы ИИ, разработанные для улучшения эффективности собственных алгоритмов и самовоспроизведения, ведущего к быстрому изменению качества и количества, должны быть объектом применения мер жесткого регулирования и контроля.
23) Всеобщее благо: сверхразум должен быть разработан исключительно в целях, соответствующих большинству этических идеалов и для пользы всего человечества, а не одного государства или организации.
How does verification work?
• Declaration URL - This person has made a public declaration of signing the open letter which can be viewed online.