Skip to content

Is an AI Arms Race Inevitable? Russian

Published:
January 8, 2019
Author:
Jake Beebe

Contents

Гонка «умных» вооружений – неизбежна?


Click here to see this page in other languages: English 


Принцип Гонки вооружений с искусственным интеллектом (ИИ): Необходимо избежать гонки автономных вооружений.

Наверное, самой пугающей частью Холодной войны была гонка ядерных вооружений. На ее пике США и Россия обладали более, чем 70 000 единиц ядерного оружия, и даже малая часть этого арсенала могла бы уничтожить все живое на земле. Сегодня в мире идет соперничество в разработке все более мощного искусственного интеллекта (ИИ), и поскольку правительства разных стран все активнее тестируют возможности использования ИИ в вооружении, многие эксперты в сфере ИИ обеспокоены, что, возможно, началась новая не менее пугающая гонка – гонка автономных вооружений.

Так, в конце 2015 года Пентагон запросил включить в бюджет США 2017 года 12-15 млрд. долларов на ИИ и автономные вооружения. Роберт Ворк, бывший в то время заместителем министра обороны США, признал, что он хотел, чтобы «наши соперники гадали, что скрывается за черным занавесом». Ворк также сказал, что цель этих новых технологий – «обеспечить сохранение военного превосходства над Китаем и Россией».

Но не только США обладают данной технологией, поэтому существуют опасения, что страны с более низкими стандартами безопасности могут быстро обогнать Соединенные Штаты. Без должного отношения к безопасности – труднее контролировать автономные вооружения, а значит повышается риск для жизни мирных жителей и опасность попадания подобного оружия в руки террористов, диктаторов, безответственных государств и лиц, обладающих самыми бесчеловечными намерениями.

Анка Драган, доцент Калифорнийский университет в Беркли, сравнила возможность гонки вооружений, использующих ИИ, с «очень дешевым и легко доступным ядерным оружием».

«И для нас это может плохо кончиться», – добавляет она.

В отличие от ядерного оружия, этот новый вид оружия массового поражения может быть использован для прицельного уничтожения групп людей по характерным отличиям: например, в зависимости от расы или от того, что они «лайкают» в социальных сетях.

Автономные вооружения


Тоби Уолш, профессор Университета Нового Южного Уэльса (Австралия), в 2015 году инициировал публикацию открытого письма с призывом запретить автономные вооружения. Письмо подписали более 20 000 человек. Об этом письме и о Принципе Гонки вооружений с ИИ, Уолш сказал: «Я включился в эту дискуссию, потому что сейчас гонка вооружений, которую ведут различные армии в мире, – одна из важнейших тематик. Гонка может иметь крайне дестабилизирующий эффект. Подобные технологии, когда они станут доступны, – могут разрушить существующий миропорядок. Вообще, ИИ, который планируют использовать в этой гонке вооружений – глуп, и меня очень тревожит, что он технологически не способен будет отличить солдат от мирных жителей, соблюдать международное гуманитарное законодательство, и может быть использован тиранами и террористами, или хакерами, что приведет к крайне нежелательным последствиям. И именно к этому сейчас все идет.»

Профессор Монреальского университета (Канада) Йошуа Бенгио в разговоре о Принципе, отметил, что он – один из подписавших то самое открытое письмо об автономных вооружениях, и это, по сути «наглядно показывает» его озабоченность возможной гонкой вооружений с ИИ.

Детали и определения


Драган рассуждает не только о рисках гонки, но и о том, что делать и как этого избежать: «Я полагаю, для этого необходимы международные соглашения,» – заявляет она.

Не только Драган говорит о необходимости международных соглашений: недавно в ООН достигнута договоренность об официальных обсуждениях, которые, вероятно, приведут к переговорам о запрете или ограничении автономного вооружения. Но, как обычно, дьявол в деталях.

Профессор Барт Селман из Корнеллского университета (США) утверждает, что гонку вооружений с ИИ: «необходимо избежать.» Но добавляет: «”необходимо” избежать это одно, а вот “удастся” ли избежать – это еще большой вопрос.»

Селман говорит о необходимости «таких же обсуждений, какие были о ядерном или биологическом оружии, когда люди всерьез начали рассматривать существующие риски и альтернативы гонки вооружений.»

«Подобные обсуждения», – утверждает он, – «могут объединить людей и целые страны: они могут заявить, что это неверное развитие и нам следует ограничить или прекратить его. И главная ценность Принципа, я думаю, – в понимании необходимости обсуждения этого всем обществом, вместе с другими странами.»

Дэн Вельд, профессор Вашингтонского университета (США), также опасается, что одних лишь заявлений о необходимости остановить гонку вооружений – недостаточно. «Я всем сердцем надеюсь, что мы не увидим гонку автономных вооружений», – говорит он, – «Тем не менее, Принцип вызывает у меня сомнения, поскольку мне он не кажется прикладным. Ведь гонка вооружений – динамичное явление, в котором участвует несколько сторон. Для гонки нужно как минимум двое. Так кто же из них причина гонки? Боюсь, что обе стороны будут показывать друг на друга и говорить: «Эй, это не я устроил гонку! Давайте остановим ее: я просто сделаю свое оружие точнее, а ты расслабишься, на этом гонка и закончится!» Какая тогда польза от такого Принципа?»

Общее мнение


Хотя предотвратить гонку «умных» вооружений – задача сложная, но, кажется, сложилось общее негативное мнение о гонке и понимание, что ее необходимо избежать.

«Вооруженный ИИ – это оружие массового поражения, и гонка вооружений с ИИ наверняка приведет к глобальной катастрофе для человечества.» – говорит Роман Ямпольский, профессор Луисвиллского университета (США).

Кей Ферт-Баттерфилд, исполнительные директор сайта AI-Austin.org, объясняет, что «любая гонка вооружений недопустима, но особенно эта, в которой крайне велики ставки; и еще – ужасает, что это оружие, если оно будет создано, может быть использовано также во внутриполитических конфликтах.»

Но лучше всего, наверно, высказался об этом профессор Стэнфордского университета (США) Стефано Эрмон: «Даже при тех возможностях, которые мы имеем сегодня, не трудно представить, как вредоносно может быть использован . Я бы не хотел, чтобы моя научная деятельность в это сфере или какие-либо наработки причинили вред другим людям, или привели к войнам, или использовались для создания оружия – чего-то еще более смертоносного, чем то, что имеет сейчас человечество.»

А что думаете вы?


Возможно ли избежать гонку «умных» вооружений? Как можно предотвратить ее? Сможем ли мы уберечь автономные вооружения от попадания в руки диктаторов или террористов? Как бизнес и правительства могли бы вместе работать над созданием полезного ИИ, не допуская, чтобы эти технологии использовались для создания самого смертоносного оружия, когда-либо существовавшего на свете?

Эта статья является частью еженедельного цикла о 23 асиломарских принципах ИИ. Принципы определяют рамки, в которых ИИ может помочь как можно большему количеству людей. Но, как сказал о Принципах Тоби Уолш: «Это, конечно, только начало, многое еще впереди». Принципы – это лишь начало дискуссии, далее необходимо широкое обсуждение каждого конкретного принципа. Еженедельные обсуждения предыдущих принципов вы можете прочитать здесь.

Принцип Гонки вооружений с ИИ – касается именно проблемы автономного вооружения. Позднее в цикле статей мы обсудим Принцип Недопущения гонки, касающийся рисков соперничества компаний в создании технологий ИИ.

This content was first published at futureoflife.blackfin.biz on January 8, 2019.

About the Future of Life Institute

The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.

Our content

Related content

Other posts about 

If you enjoyed this content, you also might also be interested in:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram