Governing AI: An Inside Look at the Quest to Ensure AI Benefits Humanity (Russian)
Contents
Регулирование ИИ: безопасный ИИ на службе у человечества – взгляд изнутри на достижение этой цели.
Click here to see this page in other languages: English
Финансовый сектор, образование, медицина, программирование, искусство – искусственный интеллект вот-вот внесет коренные изменения чуть ли не в каждую сферу общественной жизни; правительства и эксперты в области политики начали осознавать, что для того, чтобы быть готовым к такому будущему, минимизировать риски и гарантировать безопасность и выгоду от использования искусственного интеллекта, нужно начать готовиться к появлению усовершенствованных систем ИИ уже сегодня.
Несмотря на то что мы только начали движение в этом направлении, перспектива выглядит многообещающей. Несколько стран и независимых проектов уже приступили к разработке стратегий и процедур контролирования ИИ.
В прошлом году в ОАЭ впервые в истории появилась государственная должность Министра по развитию Искусственного Интеллекта. Германия предприняла не столь радикальные, но аналогичные шаги в 2017 году, когда Комиссия по этике при Министерстве транспорта и цифровой инфраструктуры Германии разработала первый в мире набор нормативных принципов для управления автономными и подключенными к интернету автомобилями.
Предпринятые шаги значительны; однако, их предстоит объединить в более глобальные стратегии управления, выходящие за рамки национальных границ государств. Стратегический центр по исследованию Искусственного интеллекта Ника Бострома стремится помочь найти решение данной задачи через определение единых ключевых аспектов и, в конечном счете, формирование стратегии долгосрочного развития ИИ в общемировом масштабе.
Разработка глобальной стратегии: текущее положение дел
Стратегический центр по исследованию Искусственного интеллекта создавался в 2015 году с пониманием того, что противостоять угрозам, исходящим от ИИ, мир может только при помощи согласованных усилий, направленных на решение существующих проблем, связанных с концепцией и развитием ИИ. Программа по управлении ИИ GovAI) под руководством Бострома и Аллана Дафо, является основной исследовательской программой центра, ключевой миссией которого, по словам директоров, является «изучение политических, экономических, военных, управленческих и этических аспектов того, как человечество может наилучшим образом задавать направление перехода к усовершенствованным системам ИИ». В этом отношении программа сфокусирована на стратегии – на формирование социальных, политических и правительственных систем, влияющих на исследования и разработки ИИ, а не на технических препятствиях, стоящих на пути создания и программирования безопасного ИИ.
Чтобы разработать надежную стратегию ИИ, программа сотрудничает с социологами, политиками, руководителями компаний и инженерами искусственного интеллекта/машинного обучения для решения вопросов о том, как именно мы должны подходить к управлению искусственным интеллектом. В недавнем подкасте с Робом Виблином «80,000 часов» Аллан Дафо в общих чертах изложил, как исследовательская деятельность команды формируется с практической точки зрения, и заявил, что работа сосредоточена на поиске ответов на вопросы, которые подразделяются на три категории:
- Техническая перспектива: категория стремится ответить на все вопросы, связанные с тенденциями в исследованиях ИИ, с целью понять, какие будущие технологические пути развития возможны, и как они влияют на сложные задачи по управлению усовершенствованными системами ИИ.
- Концепция ИИ: категория сфокусирована на вопросах, связанных с динамикой различных групп, корпораций и правительств, преследующих свои собственные интересы в сфере ИИ, и стремится оценить связанные с этим риски и каким образом можно смягчить эти риски.
- Управление ИИ: категория рассматривает позитивное видение будущего, в котором человечество объединяет все усилия для управления усовершенствованным ИИ безопасным и надежным способом. В связи с этим возникают вопросы о том, как должна функционировать такая концепция управления и на каких принципах она должна быть основана.
Вышеупомянутые категории дают более ясное видение различных целей, которые преследуют инвесторы исследований в сфере стратегии ИИ, однако, эти категории достаточно обширны. Чтобы пролить свет на работу Центра, Джейд Люн, исследователь GovAI и кандидат наук в области международных отношений из Оксфордского университета, рассказала о некоторых конкретных актуальных направлениях работы команды.
Одним из самых интригующих направлений исследований центра является Китайская Стратегия ИИ. В рамках этого направления изучаются возможности ИИ Китая в сравнении с ИИ других стран, официальная стратегия ИИ и внутриполитическая обстановка с целью понять, по словам Джейд Люн, «амбиции Китая добиться статуса сверхдержавы в сфере ИИ, положение дел в области безопасности, сотрудничества и исследований по общему ИИ». В конечном счете, GovAI стремится выделить ключевые особенности государственной стратегии, чтобы понять позицию одного из самых важных акторов на мировой арене. В марте 2018 года Программа опубликовала отчет «Расшифровка Китайской Мечты об ИИ», в котором анализируются особенности новой стратегии Китая в развитии ИИ, и на котором планируется основывать дальнейшие исследования.
Еще одним направлением исследований центра является «Cотрудничество частных компаний и правительств», в рамках которого изучается роль, которую частные компании играют в разработке передовых ИИ, и то, как такие игроки будут взаимодействовать с национальными правительствами. В своем недавнем выступлении, посвященном возрастающей роли частного сектора в развитии ИИ на конференции EA Global в Сан-Франциско, Джейд Люн высказалась о необходимости учитывать роль частных компаний при создании стратегии по управлению ИИ, так как они являются неотъемлемой частью всего уравнения. В резюме доклада кратко изложены ключевые особенности исследований, и отмечается тот факт, что «частные компании являются единственными значимыми акторами, выразившими готовность заниматься развитием и передовыми исследованиями ИИ, поэтому крайне важно решить вопрос о том, как они будут вовлечены в будущее управление ИИ».
Другое направление работы, которое выделила Джейд Люн, включает в себя моделирование динамики гонки технологий, анализ роста числа высококвалифицированных исследователей ИИ и оборудования по всему миру.
Предстоящий путь
Когда Джейд Люн спросили о степени ее уверенности в том, что планы по долгосрочному развитию ИИ будут успешно реализованы общими усилиями на международном уровне, она аккуратно отметила, что это потребует усилий большего количества людей: «Безусловно, такие задачи требуют вовлеченности большого количества исследователей. Научным исследованиям также как и конкретным политическим действиям, направленным на поддержание безопасного и стабильного управления ИИ, до сих пор не уделяется должного внимания».
Кроме того, Люн отметила, что несмотря на то что на данном этапе уже ведутся определенные исследования и огромное количество усилий задействовано на проработке вопросов, связанных с управлением ИИ, появляется все больше направлений, нуждающихся в исследованиях. По этой причине у команды пока нет конкретных указаний, которым могли бы следовать органы государственной власти, поскольку необходим дальнейший фундаментальный анализ. «Учитывая степень неопределенности вокруг этой проблемы, в настоящее время у нас нет достаточно надежных и конкретных политических рекомендаций на ближайшую перспективу», – сказала она.
Тем не менее Люн и Дефо настроены оптимистично и считают, что этот информационный пробел, скорее всего, исчезнет — и достаточно быстро. Многие ученые приходят к пониманию важности данной проблемы, и по мере того, как увеличивается количество научных работ и все больше людей включаются в жизнь информационного сообщества, исследования становятся более узконаправленными. «Через два года наше научное сообщество, вероятно, существенно расширится и окрепнет. Первым делом мы пытаемся обозначить самые важные и наименее сложные в решении проблемы и понять, как набрать лучшую команду для работы над ними», – сказал Аллан Дафо Виблину.
Несмотря на оптимистичные взгляды на будущее укрепление научного сообщества, вопрос о том, сможет ли оно сойтись во мнениях по поводу разработок системного управления ИИ, остается открытым. По словам Дафо, мы никогда раньше не были свидетелями настолько большого прорыва в развитии интеллекта, поэтому у нас нет примера, которым мы бы могли руководствоваться для прогнозирования и определения сроков появления усовершенствованных систем ИИ.
В конечном счете, именно из-за сложности в прогнозировании мы должны вносить существенный вклад в исследования стратегии ИИ в ближайшем будущем. Как отмечает Бостром в «Сверхинтеллект: Пути, Опасности и Стратегии», ИИ – это не просто разрушительная технология, это, вероятно, самая разрушительная технология, с которой человечество когда-либо столкнется: «Сверхинтеллект – вполне возможно, самая важная и самая сложная задача, с которой когда-либо сталкивалось человечество. И вне зависимости от того, преуспеем ли мы в ее решении или потерпим неудачу – это, вероятно, будет последним вызовом, с которым мы когда-либо столкнемся».
Эта статья является частью серии публикаций Института «Будущее Жизни», посвященной грантам на исследования безопасности искусственного интеллекта и спонсируемой за счет щедрых пожертвований Илона Маска и Проекта «Открытая Филантропия»
Статья переведена Карпуниной Анной
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.