Skip to content

Can AI Remain Safe as Companies Race to Develop It? Russian

Published:
January 8, 2019
Author:
Jake Beebe

Contents

Может ли ИИ оставаться безопасным в условиях гонки разработок?


Click here to see this page in other languages: Chinese  English 

Избежание гонки в разработках: командам, работающим над системами ИИ необходимо активно сотрудничать между собой, чтобы избежать искажения стандартов безопасности.

ИИ может принести нашему обществу невероятное количество благ, которые начинаются с более быстрого и точного диагностирования заболеваний и устойчивого управления энергетическими ресурсами и простираются далеко за пределы наших сегодняшних представлений. Однако в существующей экономической системе побеждают те игроки, который добились технологического прорыва быстрее всех, и команды, занятые разработкой технологий искусственного интеллекта, первыми вкусят плоды своих трудов – деньги, престиж и доминирующее положение на рынке технологий.

Когда компания участвует в гонке на скорость разработки новой технологии, она может пренебречь соблюдением стандартов безопасности, поэтому чрезвычайно важно, чтобы исследователи и разработчики ИИ помнили, что при всех своих выдающихся способностях ИИ сопряжен с рисками, начиная от неумышленной предвзятости и дискриминации, заканчивая потенциальной случайной катастрофой. Эти риски будут возрастать, если компании, борющиеся за разработку какого-либо технологического продукта, в первую очередь не уделят время надлежащей проверке и оценке каждого аспекта своих программ и проектов.

Несмотря на то, что риск от гонки разработок ИИ огромен, без конкуренции компании не могут выжить.

Как недавно высказался Илон Маск: «Компаниям приходится участвовать в гонке технологий иначе они становятся неконкурентоспособными. Если ваш конкурент двигается в разработках семимильными шагами, а вы нет, то он вас задавит».

Возможно ли сотрудничество?


Видя признаки приближающейся гонки технологий ИИ, некоторые эксперты считают, что компаниям будет очень сложно прийти к сотрудничеству в данной сфере.

По словам профессора ИИ Сьюзан Кро, сотрудничать им довольно сложно, особенно когда дело доходит до гонки в разработке продукта: «Мне кажется, что контролировать этот процесс будет непросто, особенно если компании не поддерживают принципы. Для меня вопрос безопасности является крайне важным, но еще более важной я считаю необходимость тесного сотрудничества в данной области. Очень многое зависит от того, с кем приходится работать».

Сьюзан Шнейдер, философ, специализирующийся на изучении продвинутого ИИ, считает, что сотрудничество крайне необходимо, но ему препятствуют страны и компании, которые заинтересованы в сохранении статуса секретности, и что вышедший из такой гонки продвинутый ИИ является глобальной угрозой для всего человечества.

Тем не менее, высокая сложность задачи не означает невозможности найти ее решение, и у исследователя Патрика Лина, возможно, есть лучик надежды. «Трудности в налаживании сотрудничества имеют истоки в проблемах, существующих сегодня в научном сообществе… Соперничество – это хорошо, а гонка вооружений – это плохо, но как вы собираетесь заставить людей сотрудничать? Что ж, возможно, нужно начать с развития культуры», – предлагает Лин, ссылаясь на комментарий, который он сделал в нашей статье «Принцип исследовательской культуры». В ней Лин говорит, что отсутствие сплоченности в рядах научного сообщества обосновано тем, что оно состоит из огромного количества специалистов из разных областей.

Развитие сплоченности – сложная, но посильная задача.

Что важнее?


Возможно, важным шагом на пути к созданию среды, поощряющей «совместную конкуренцию», является понимание причин, почему организации или команды могут пренебрегать безопасностью. Это именно то, что сделал гарвардский психолог Джошуа Грин, когда он рассматривал этот принцип.

«Пренебрежение безопасностью в прямом смысле означает, что «мое личное благо имеет приоритет над общественным благом», – сказал Грин. – Пренебрежение безопасностью – это проявление эгоизма. Единственная причина технологической гонки ценой безопасности – это жажда выгоды. По мере того, как увеличивается вероятность того, что человечеству в целом будет нанесен вред, растет выгода частных лиц».

Преимущество безопасности


Джон Хавенс, исполнительный директор IEEE (Институт инженеров электротехники и электроники), говорит, что он «более чем согласен» с Асиломарскими принципами. Он хочет использовать их как возможность полностью пересмотреть понятие безопасности и современный подход к ней.

Хавенс объясняет: «Мы должны помочь людям переосмыслить, что означают стандарты безопасности. … При новом подходе к безопасности у разработчиков теперь назревают вопросы «Что такое моя система ИИ? Как она будет взаимодействовать с конечными пользователями или заинтересованными сторонами, которые контактируют с ней? На каком этапе в процесс вовлечены люди? Когда происходит взаимодействие человека с искусственным интеллектом и когда разные системы ИИ взаимодействуют между собой?»».

«Безопасность – это действительно вопрос человеческих ценностей. Это не просто физическая безопасность, это также безопасность персональных данных и особенности взаимодействия. Невыгодно легкомысленно подходить к вопросам безопасности, поскольку это наносит урон инновациям и препятствует разработке действительно качественного продукта или сервиса».

Что касается компаний, уделяющих должное внимание стандартам, то, по словам Лина, они откроют для себя множество удивительных способов построить доверие в своем деле, если уделят достаточно внимания и времени изучению стандартов безопасности.

А что думаете Вы?


С появлением таких организаций, как Партнерство по ИИ, мы уже начинаем видеть признаки того, что компании признают и хотят устранить опасности гонки ИИ. Но на данный момент она состоит в основном из западных организаций, в то время как компании во многих странах и особенно в Китае борются за то, чтобы догнать — и, возможно, «перегнать» компании в США и Европе. Как мы можем поощрять организации и исследовательские группы во всем мире к сотрудничеству и совместной разработке стандартов безопасности? Как можно помочь командам контролировать их работу и обеспечивать соблюдение надлежащих процедур безопасности? Исследовательские группы, работающие с ИИ, будут нуждаться в обратной связи и понимании специфики деятельности своих партнеров, чтобы гарантировать, что они не упускают из вида потенциальные риски. Но как это сотрудничество будет работать, не заставляя компании раскрывать коммерческие тайны? Что Вы думаете о принципе избегания гонки?

Эта статья является частью серии, посвященной 23 Асиломарским принципам работы с ИИ. Принципы предлагают основу для безопасного и выгодного использования ИИ. Однако, по словам  эксперта по искусственному интеллекту Тоби Уолша: «Безусловно,  мы находимся в самом начале пути … впереди еще много работы. Разработка принципов – это лишь начало, и теперь нам нужно продолжить широкое обсуждение каждого отдельного принципа». С обсуждением предыдущих принципов Вы можете ознакомиться здесь.

Статья переведена Карпуниной Анной.

This content was first published at futureoflife.blackfin.biz on January 8, 2019.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram