Стоит ли бояться искусственного суперинтеллекта?

По мере развития искусственного интеллекта люди начали спрашивать, что будет означать для человечества конечный результат, искусственный суперинтеллект.

Выступая на конференции в Лиссабоне, Португалия, незадолго до своей смерти, Стивен Хокинг сказал присутствующим, что развитие искусственного интеллекта может стать «худшим событием в истории нашей цивилизации», и у него были все основания для беспокойства. Известный как искусственный суперинтеллект (ИСИ) благодаря исследователям ИИ, специалистам по этике и другим, у него есть потенциал стать более могущественным, чем что-либо, что эта планета когда-либо видела, и он представляет то, что, вероятно, будет последней экзистенциальной проблемой, с которой человечество когда-либо столкнется как вид.

 

Почему люди боятся искусственного интеллекта?

Чтобы лучше понять, что обеспокоило Стивена Хокинга, Илона Маска и многих других, нам нужно разобрать многие из популярных культурных описаний ИИ.

Реальность такова, что ИИ был с нами некоторое время, с тех пор компьютеры cмогли принимать решения на основе входных данных и условий. Когда мы видим в фильмах угрожающую систему искусственного интеллекта, нас пугает злобность системы в сочетании с мощью компьютера. Тем не менее, она по-прежнему ведет себя по-человечески.

Тип ИИ, который мы имеем сегодня, можно описать как искусственный функциональный интеллект (ИФИ). Эти системы запрограммированы, чтобы выполнять определенную роль и делать так же или лучше, чем человек. Они также стали в этом более успешными за более короткий промежуток времени, чем кто-либо предсказывал, победив человека в сложных играх, таких как Go и Starcraft II, что, как думали люди, не произойдет еще многие годы, если не десятилетия.

Несмотря на то, что мы можем шутить о том, что нам нужно приветствовать наших роботов повелителей, нет никакого реального риска, что эти системы сами по себе представляют угрозу, о которой говорил Хокинг. AlphaGo может легко победить любого игрока в Go отныне и вплоть до тепловой смерти вселенной, но спросите ее о текущих погодных условиях, и ей не хватает интеллекта даже одноклеточных организмов, которые реагируют на изменения температуры. Когда мы говорим об опасном искусственном интеллекте, мы думаем о том, что компьютерные специалисты называют искусственным общим интеллектом (ИОИ), искусственной системой, которая полностью подражает человеческому разуму и настолько же умна, как и человек в любой области знаний, за исключением того, что она может думать в миллиарды раз быстрее, чем мы. Это то, что в фильмах, как правило, изображают невероятно опасными компьютерными технологиями, одержимыми уничтожением человечества, но как бы ужасно это ни казалось, это не реальная проблема. Какой бы угрожающей не казалась эта система, мы, скорее всего, никогда не увидим появления ИОИ. Реальная проблема заключается в том, что находится на шаг впереди ИОИ.

Создание за пределами человеческого интеллекта

Проблема разработки ИОИ в традиционном смысле состоит в том, что невозможно программировать дерево решений для каждого вопроса, который ИОИ должен решить. Всегда будет что-то, для чего он просто не запрограммирован, например, запросить у AlphaGo погоду.

Люди постоянно сталкиваются с этой проблемой, и наша способность учиться и формировать новые связи в нашем мозгу делает нас способными к интеллекту и решению проблем. Если мы не знаем, как решить проблему, мы можем проанализировать ее и найти ответ. Именно эту способность мы только сейчас начинаем развивать в самые совершенные системы ИИ, которые у нас есть, и это действительно вещи каменного века в великой схеме вещей.

Чтобы по-настоящему достичь ИОИ, системе необходим ключевой инструмент, который люди считают само собой разумеющимся, в основном потому, что он автоматический. Он должен быть в состоянии переписать свое программирование, чтобы сделать себя умнее - способ, которым человеческая биология автоматически перестраивает мозг для изучения новых вещей. Именно здесь начинают складываться последствия и проблемы, связанные с искусственным интеллектом, подлинные научные проблемы, а не голливудская версия.

Предположим, мы программируем систему, которая может переписать свое собственное программирование, чтобы сделать себя более разумной в любом предмете, навыке или способности, на которые способны люди.   В начале это не выглядело бы очень разумно, но каждое последующее усовершенствование, в свою очередь, улучшало бы её способность к самосовершенствованию. Каждый крошечный шаг будет основываться на последнем, экспоненциально растущем.

В этом процессе наступит момент, когда система перестанет быть ИФИ. Как твердый сублимирующий в своем газообразном состоянии, этот ИФИ, казалось бы, полностью минует ИОИ, поскольку его интеллектуальный рост становится взрывоопасным, момент, который известный авторитет в области ИИ, Ник Бостром, называет Старт ИСИ. Мы даже не можем себе представить, на что действительно похож этот разум.

Разве мы не можем просто отключить искусственный суперинтеллект?

Как правило, это наиболее распространенный ответ общественности, когда они думают об убегающем ИИ в стиле Скайнета. Просто отключите его или что-то такое же мирское, как если бы искусственный суперинтеллект был модемом, который нужно было перезагрузить. Мы уже знаем, что это не сработает, так же как вы не можете удалить компьютерный вирус или остановить его распространение, выключив зараженный компьютер. Как только инфекция появляется, уже слишком поздно. Если вирус может внедрить себя в систему, чтобы противостоять удалению или копировать себя и заражать другие системы, прежде чем мы даже узнаем, что происходит, искусственный суперинтеллект будет бесконечно труднее удалить. Хуже того, с помощью чего-то такого умного, он мог бы найти способы самообороны, которые мы считаем совершенно невозможными, потому что у нас не хватает интеллекта, чтобы знать, как это сделать, это как пытаться понять физику самолета, имея мозговую способность бабуина. Мы могли бы отключить искусственный суперинтеллект только для того, чтобы наблюдать, как он появляется на другом конце света, как по волшебству, и мы никогда не узнаем, как он смог туда добраться.

Тогда зачем вообще это делать?

Это вопрос, который мы, естественно, задаем, но проблема в том, что нет никакого реального способа разработать систему, которая бы составляла даже значительный процент ИОИ, без необходимости отдавать контроль над ростом и развитием системы самому ИИ, так же как развитие нашего собственного интеллекта - это автоматическая функция формирования нашим мозгом новых нейронных связей. Если мы хотим выйти за рамки элементарных ИОИ, которые у нас сейчас есть, то мы должны предположить, что искусственный суперинтеллект столь же неизбежен, как и ядерное оружие неизбежно после расщепления атома для использования ядерного деления в качестве источника энергии. В конечном счете, единственный способ предотвратить появление искусственного суперинтеллекта - это вообще остановить дальнейшее развитие искусственного интеллекта, что на данный момент не представляется вероятным или даже возможным. Подобно тому, как искусственный суперинтеллект обладает бесконечным потенциалом приносить вред, он так же легко может принести пользу, по крайней мере, его создателям. Если у вас есть две противоборствующие нации, как одна нация может доверять другой с такой мощной системой? Подобно тому, как запуск спутника СССР подтолкнул зарождающуюся космическую программу США к перегрузке, развитие ИИ уже достаточно продвинулось, и никто не хочет занять второе место в гонке за ИИ. Риск отставания слишком велик. Если стимулов для развития более сложных ИИ больше чем у кого-то другого, значит гонка вооружений ИИ неизбежна, и, как мы уже видели, нет никакой дороги к ИОИ, которая не производила бы ИСИ почти сразу после этого. Таким образом, если его появление почти гарантировано, чем больше мы исследуем и развиваем искусственный интеллект, тем у вас еще больше стимула быть тем, кто первым его разработает. Таким образом, у вас больше шансов, что суперинтеллект будет доброжелателен к вам ну или, по крайней мере, не враждебен. Добро пожаловать в Заключенную Дилемму искусственного интеллекта.

Стоит ли бояться искусственного суперинтеллекта?

Конечно.

Как и в случае любого технологического развития, всегда есть непредвиденные последствия, и как только у нас появится искусственный суперинтеллект, пути назад уже не будет. Но мы должны помнить, что по своей природе мы видим угрозу, которую представляет такая система, потому что мы запрограммированы эволюцией обнаруживать опасность и избегать ее. Нечто такое могущественное действительно могло бы решить и, вероятно, могло бы уничтожить всю человеческую жизнь, если бы его целью было сохранение всей жизни планеты. В конце концов, самая большая угроза жизни на Земле - человеческая цивилизация.

Но если бы он обладал такой властью, он имел бы столько же возможностей, чтобы предотвратить или даже обратить вспять изменение климата, и в этом заключается выбор человечества. Точно так же, как бесконечны потенциальные недостатки ИСИ, так же невозможно наложить ограничение на добро, которое может достигнуть подобное творение. Что бы мы ни думали, у ИСИ есть потенциал сделать больше. Изменение климата, искоренение болезней, конец нужды и голода, конец самой смерти и даже скорее быстрое, чем легкое путешествие в далекие галактики - все это так же постижимо - и, возможно, даже более вероятно, - это всё результат ИСИ, а не бессмертного злобного диктаторского монстра, против которого предостерегает Илон Маск.

У нас есть все основания полагать, что в конечном итоге ИСИ будет работать в нашу пользу. Каждый технологический прогресс обходится дорого, но человеческая цивилизация продвинулась благодаря этому. В конце концов, люди имеют солидный послужной список, когда дело доходит до технологий. Да, мы можем производить оружие невероятной разрушительности, но мы также можем искоренить оспу и полиомиелит. Мы в значительной степени победили голод как таковой, и даже войны неуклонно сокращаются. Если наше будущее похоже на наше прошлое, то мы можем с полным оптимизмом смотреть в будущее искусственного интеллекта. Искусственный суперинтеллект будет таким, каким мы его сделаем, точно так же, как дети - это больше, чем просто биологический продукт их родителей, поэтому очень важно, чтобы мы как цивилизация решили, какой именно искусственный суперинтеллект мы хотим создать.