среда, 13 декабря 2017 г.

AI: Опасна ли нам сингулярность?


В последнее время рассуждения об искусственном интеллекте (AI) в популярных изданиях начинают принимать всё более алармистский оборот. Одни пытаются доказать, что AI якобы вытеснит с рынка 90% людей, обрекая их на безработицу и прозябание. Другие идут дальше и задаются вопросом: не создаёт ли человечество себе в лице искусственного интеллекта экзистенциальный риск, с которым не сравнится никакая водородная бомба? Давайте попробуем разобраться.

Сторонники рассматривать AI как экзистенциальный риск обычно имеют в виду сценарий «взрыва интеллекта», при котором сильный AI получает возможность улучшать себя (например, переписывать части программного кода), тем самым становясь ещё «умнее», что приводит к возможности более радикальных улучшений и так далее. Подробней об этом можно прочесть, например, в AI-Foom debate между Робином Хансоном и Элиэзером Юдковским, которые обсуждают в точности этот сценарий. Основная опасность здесь заключается в том, что задачи «взорвавшегося» искусственного интеллекта могут не соответствовать целям и задачам человечества.
Избитый в этой теме пример: если «целью жизни» сильного AI было вполне невинное производство канцелярских скрепок, то через неделю-другую после «взрыва» Земля вполне может оказаться полностью покрыта полностью автоматизированными фабриками двух типов – производящими скрепки и производящими космические корабли, которые позволят начать производить скрепки на других планетах…

Действительно, звучит неприятно. Более того, очень сложно оценить, насколько реалистичен этот сценарий будет при разработке реального AI со сверхчеловеческими способностями. А значит, его нужно обязательно принимать во внимание и стараться от него защититься – я согласен, что деятельность Ника Бострома и Элиэзера Юдковского вовсе не бессмысленна.

Однако мне, практикующему исследователю в области машинного обучения, очевидно, что речь в этом сценарии идёт о таких моделях, которых сейчас не просто не существует – и не будет существовать ещё долгие-долгие годы. Дело в том, что, несмотря на действительно огромное продвижение искусственного интеллекта в последние годы, до в каком бы то ни было смысле «сильного» AI ещё очень, очень далеко. Современные глубокие нейронные сети умеют распознавать лица не хуже человека, могут перерисовать пейзаж вашей дачи в стиле Ван Гога и умеют играть в го лучше любого человека.

Однако это ещё ничего не значит; приведу несколько наглядных примеров.
Современные системы компьютерного зрения всё же крайне уступают визуальным способностям даже двухлетних детей. В частности, обычно системы компьютерного зрения работают с сугубо двумерными объектами и не могут выработать никакой интуиции о том, что мы живём в трёхмерном мире; и пока это сильно ограничивает их возможности.
Ещё сильнее ограничение проявляется в обработке естественного языка. К сожалению, до уверенного прохождения теста Тьюринга на данный момент далеко. Дело в том, что человеческие языки очень сильно используют нашу интуицию об окружающем мире. Пушкин в «Евгении Онегине» пишет: «На столик ставят вощаной // Кувшин с брусничною водой». У нас это предложение проблем не вызывает. Но попробуйте задуматься: откуда вы знаете, что «вощаной» тут именно столик, а не кувшин? Если бы был не «вощаной», а «стеклянный», был бы скорее кувшин, правда? И таких примеров очень много; но моделям, работающим с естественным языком, подобную интуицию взять неоткуда.
А в так называемом обучении с подкреплением, при помощи которого обучалась и AlphaGo, проблемы у компьютеров в основном как раз с мотивацией. Например, в классической работе Владимира Мниха с соавторами модель на основе глубокой нейронной сети обучалась играть в разные древние компьютерные игры, просто «глядя на экран», по картинкам из игры. Оказалось, что это вполне возможно… за одним исключением: игровые очки всё-таки нужно было подавать на вход отдельно и специально указывать модели, что их нужно набирать как можно больше. Современные нейронные сети никак не могут сами догадаться, что нужно делать, в них нет ни стремления к расширению своих возможностей, ни тяги к познанию, присущих человеку.

Смогут ли нейронные сети когда-либо преодолеть эти препятствия и научиться обобщать разнородную информацию, понимать окружающий мир и стремиться узнавать новое, как это делает человек? Вполне возможно; в конце концов, мы с вами ведь как-то справляемся. Однако сейчас эти проблемы кажутся крайне труднорешаемыми, и нет абсолютно никаких шансов, что современные нейросети вдруг «проснутся» и решат захватить мир.

Впрочем, я действительно вижу большую опасность в поднявшейся в последние годы волне хайпа на AI вообще и глубоких нейронных сетей в частности. Вот только опасность эта, на мой взгляд, не от AI, а для AI. История уже знала по меньшей мере две «зимы искусственного интеллекта», когда слишком большие авансы и обещания, слишком активные волны хайпа приводили к разочарованиям. По иронии судьбы, обе «зимы AI» были связаны с нейронными сетями: сначала перцептрон Розенблатта в конце 1950-х годов попытались тут же превратить в системы машинного перевода и компьютерного зрения (естественно, безуспешно), потом в конце 1980-х нейронные сети, которые имели уже достаточно современную структуру, никак не могли хорошо обучиться из-за нехватки данных и вычислительных мощностей. В обоих случаях результатом завышенных ожиданий стали долгие периоды стагнации в исследованиях. Будем надеяться, что с нынешней, третьей волной хайпа нейронных сетей история решит не повторяться, и даже если сегодняшние завышенные обещания не сбудутся (а сбыться им будет трудновато), исследования всё равно продолжатся…

Сергей Николенко

Комментариев нет:

Отправить комментарий