How Smart Can AI Get? Russian
Contents
Насколько продвинутым может стать ИИ?
Click here to see this page in other languages : English Chinese
Предостережение о возможностях: не существует единого мнения по поводу того, должны ли мы сторонится предположений относительно будущих возможностей ИИ.
Надвигаются серьезные изменения, они не имеют временных рамок, но затронут все сегменты общества. Люди, принимающие участие в этих событиях, несут огромную ответственность, но вместе с тем они имеют возможность изменить мир к лучшему. Что является причиной этих изменений? Искусственный интеллект.
23 Асиломарских Принципа, касающиеся ИИ, предлагают структуру, которая помогает извлекать выгоду из искусственного интеллекта как можно большему числу людей. Но, как сказал эксперт по ИИ Тоби Уолш: «Это только начало… работа продолжается». «Принципы» представляют собой начало разговора, и теперь, когда разговор идёт, нам необходимо продолжить обсуждение каждого принципа по-отдельности. Вы можете прочитать еженедельные обсуждения принципов здесь.
Предостережение возможностей
Один из важнейших вопросов, стоящих перед исследователями ИИ, – это насколько продвинутым и способным может быть ИИ? В последние годы развитие ИИ ушло далеко вперёд. Компьютерный алгоритм AlphaGo компании DeepMind превзошёл человека в сложной игре «Go». Также компания создала ИИ, который может играть в видеоигры Atari намного лучше, чем человек. Мы видим прогресс ИИ, касающийся перевода на другой язык, самоходных транспортных средств и даже создания новых лекарственных молекул.
Но как далеко сможет зайти ИИ? Будет ли он продолжать преуспевать только в определенных сферах или его влияние будет охватывать более широкие границы, позволяющие превосходить человека практически во всех сферах жизни? Готовы ли мы к ещё более умному и продвинутому ИИ?
Некоторые эксперты считают, что создание высокотехнологичного ИИ будет уже возможно в ближайшие десятилетия, а то время как другие считают, что это вообще невозможно. Принципы предостережения о возможностях доказывают, что до тех пор, пока у нас нет доказательств того, чего может достичь ИИ, будет разумным предположить, что не существует вообще никаких границ для ИИ. На данных момент всё возможно, и нам нужно спланировать всё соответствующим образом.
Мнение эксперта
Принцип предостережения о возможностях вызвал в экспертах как солидарность, так и несогласие. Все, с кем я беседовал, в целом согласились, что мы не в состоянии предположить, каких пределов может достичь ИИ. Их аргументы по этому поводу различались, а некоторые были достаточно сильно озабочены этим.
Стефано Эрмон, доцент в Стэнфордского университета, и Роман Ямпольский, адъюнкт-профессор в Университете Луисвилля, нашли более безопасный подход.
Ермон обратился к истории как к напоминанию о том, насколько трудно сделать прогнозы на будущее. Он объяснил: «Всегда трудно предсказать будущее. … Подумайте о том, что люди сто лет назад представляли себе, как будет выглядеть будущее. … Я думаю, им было бы очень сложно вообразить наш сегодняшний мир. Мне кажется, мы должны придерживаться схожего, очень осторожного мнения, когда пытаемся предсказать будущее. Это очень сложно, так что лучше делать это осторожно».
Ямпольский рассмотрел современную политику тех-безопасности и заявил, «Во многих сферах компьютерной науки, таких как сложность или криптография обычное явление – это когда мы имеем дело с наихудшим сценарием. Аналогичным образом, в AI Safety, мы должны предположить, будет ли ИИ максимально способным и подготовленным соответствующим образом. И даже если мы ошибёмся, мы всё равно будем в порядке».
Дэн Уэлд, профессор Вашингтонского университета, сказал о принципе: «Я согласен! Как ученый, я против принятия суровых или несправедливых предположений о чем-либо, поэтому, конечно, я согласен».
Но согласившись с основной идеей принципа, Уэлд всё же имел некоторые колебания. «Этот принцип меня беспокоит, – пояснил Уэлд, – … . Всё это меня беспокоит, потому что мы забываем о чём-то более значительном и важном, потенциально разрушительном. Меня больше беспокоит потеря работы и медицинского обслуживания, образования и базового дохода, чем Скайнет (искусственный интеллект, главный антагонист фильмов о Терминаторе). И меня гораздо больше беспокоит то, что какой-то террорист сможет использовать систему искусственного интеллекта и попытаться запрограммировать ее таким образом, чтобы убить всех американцев, чем то, что искусственная система внезапно просыпается и решает, что она должна делать сама по себе.
Гурудут Банавар, вице-президент IBM Research, рассматривает проблему с другой точки зрения. Он опасается, что неиспользование всех наивысших возможностей ИИ может ограничить полезные возможности. Банавар объяснил: «Общая идея заключается в том, что интеллект, как мы его понимаем сегодня, – это способность обрабатывать информацию из всех возможных источников и использовать ее для прогнозирования будущего. Вполне возможно, что машины смогут это сделать. … Я думаю, нам следует избегать предположений об ограничении возможностей машинного интеллекта».
Исследователь в IBM Франческа Росси рассмотрела Принцип с другой стороны. Она предполагает, что ИИ необходим человечеству для достижения всех наших возможностей, поэтому стоит избегать уверенных предположений относительно верхнего порога возможностей искусственного интеллекта.
«Я за создание систем ИИ, которые дополняют человеческий интеллект, но не заменяют его», – сказала Росси, – «и я думаю, что в этом пространстве, расширяющем человеческий интеллект, существует место для огромного потенциала ИИ, чтобы сделать нашу личную и профессиональную жизнь намного лучше. Я не думаю, что в этом отношении существуют пределы будущих возможностей ИИ. Я думаю, что все больше и больше систем ИИ вместе с людьми улучшат наш вид интеллекта, который дополняет тот интеллект, который есть у машин, и поможет нам принимать более правильные решения, жить лучше и решать проблемы, решения которых у нас сейчас нет. Я не вижу никаких пределов этому».
Что вы думаете?
Существует ли предел возможностей ИИ? Существует ли предел наших возможностей с помощью ИИ? Сколько времени потребуется для того, чтобы достичь совершенного робота? Как нам планировать будущее с такой неопределенностью? Как общество в целом может решить все эти вопросы? И какие вопросы ещё не заданы?
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.