Нас призывают бояться роботов. Но почему мы считаем, что роботы пойдут против нас?

  
Несмотря на кровавые заголовки, объективные данные показывают, что люди по всему миру стали жить дольше, болеть меньше, питаться лучше, больше времени проводят в образовательных учреждениях, получают доступ к большему количеству объектов культуры и становятся менее склонны к насилию, войнам и убийствам. Но отчаяние не имеет границ. Даже если пессимисты вынуждены признать, что жизнь становится все лучше и лучше для все большего числа людей, у них наготове уже есть возражения. Они говорят, что мы радостно движемся навстречу катастрофе, словно человек, падающий с крыши, пролетая очередной этаж, говорит “Пока что не все так плохо”. Или мы играем в русскую рулетку, и пуля обязательно настигнет нас. Или мы будем ослеплены черным лебедем, событием совершенно маловероятным.

Всадники апокалипсиса

Почти четверть века мы считали, что всадники апокалипсиса — это перенаселение, нехватка ресурсов, загрязнение окружающей среды и ядерная война. К ним недавно присоединилась кавалерия более экзотических рыцарей: наноботы, которые нас поглотят, роботы, которые поработят нас, искусственный интеллект, который превратит нас в сырьевые материалы, и болгарских подростков, которые разработают смертоносный вирус или уничтожат интернет прямо из своих спален.

Те, кто верил в старых добрых всадников апокалипсиса были романтиками и луддитами. Но те, кто предупреждает о высокотехнологичных опасностях, часто являются учеными и технологами, которые подключили всю свою фантазию, чтобы сформулировать все больше вариантов грядущего конца света. В 2003 году астрофизик Мартин Рис опубликовал книгу под названием «Наш последний час», в которой он предупредил, что «человечество возможно является создателем оружия своего уничтожения» и изложил несколько десятков причин, по которым мы «угрожаем будущему всей вселенной». Например, эксперименты со столкновением частиц в коллайдере могут привести к образованию черной дыры, которая поглотит Землю, или сжатие кварков, которое может привести к исчезновению всей материи во вселенной. Рис нащупал золотую жилу, в форме страха катастроф. На странице книги на Amazon отмечается: «Клиенты, которые просматривали этот товар, также искали

  • Глобальные катастрофические риски;
  • Наше окончательное изобретение: Искусственный интеллект и конец человеческой эры;
  • Конец: что наука и религия говорят нам об Апокалипсисе;
  • Вторая мировая война Z: устная история войны с зомби».

Техно-филантропы финансировали научно-исследовательские институты, занимающиеся открытием новых экзистенциальных угроз и решением задач, как спасти мир от них, в том числе Институт Будущего человечества, Институт Будущего жизни , Центр изучения экзистенциального риска и Институт глобальных катастроф.

Все возможно…

Что же мы должны думать об угрозах для жизни человечества, которые связывают с техническим прогрессом? Никто не может пообещать, что какого-то катаклизма не будет, и в нашей статье мы тоже не высказываем уверенности в этом. Изменение климата и ядерная война, в частности, являются серьезными глобальными проблемами. Хотя они не решены, но они разрешимы, и способы разрешения были разработаны. Процессы декарбонизации и денуклеаризации идут полным ходом. Мир выделяет меньше углекислого газа, а мировой ядерный арсенал сократился на 85 процентов. Конечно, для предотвращения возможных катастроф эти показатели должны быть доведены до нуля.

Сомнительные сценарии

Но помимо реальных угроз предоставляются более сомнительные сценарии. Например, некоторые люди высказывают идею о том, что случайно или преднамеренно искусственный интеллект может подчинить нас себе. Они называют это Робокалипсисом, и чаще всего демонстрируют кадры из Терминатора, как примеры. Некоторые достаточно умные люди воспринимают этот вариант достаточно серьезно. Например, Илон Маск, чья компания производит автомобили с автоматической системой управления, назвал эту технологию “более опасной, чем ядерное оружие”. Стивен Хокинг, говорящий с помощью синтезатора речи, сказал, что может “положить начало конца света”. Но все же большинство умных людей не теряют сон в мыслях о грядущем конце света, большинство из них эксперты в областях искусственного и человеческого интеллектов.

  

Стоит ли бояться "судного дня"?

  
Интеллектуально люди превосходят животных, и предположительно в будущем искусственный интеллект превзойдет человеческий. И поскольку мы одомашнивали или уничтожали животных, которые были менее развиты (как и более технологически развитые нации уничтожали менее развитые), люди предполагают, что супер-развитый искусственный интеллект поступит с нами так же (этот сценарий назвали “foom,”, в честь изображения звукового эффекта в комиксах). И поскольку скорость, с которой он будет просчитывать информацию и производить самообучение, будет очень высока, то мы окажемся бессильны перед лицом такого врага.

Но размышляя подобным образом, можно предположить, что раз самолеты летают быстрее орлов, то они обязаны вырваться в свободный полет и начать охотится за нашим скотом.

Ошибки восприятия искусственного интеллекта

Первая ошибка — это путать интеллект и мотивацию, убеждения и желания, выводы и цели, мышление и потребности. Даже если бы мы изобрели суперинтеллектуальных роботов, почему они должны захотеть убить нас и захватить мир? Интеллект — это способность придумывать новые способы достижения цели. Но цели никак не связаны с наличием интеллекта: быть умным не равнозначно желанию чего-либо. Так вышло, что у Homo sapiens интеллект является продуктом естественного отбора, который неразрывно связан с конкуренцией. В мозгу этого вида рассуждения приходят в связке с такими целями, как доминирование над соперниками и необходимость накопления ресурсов. Но ошибочно путать цепь в мозге определенного вида приматов с самой природой интеллекта. Система с искусственным интеллектом, которая была разработана не тоже самое, что эволюционировавший интеллект. Такие системы с легкостью могут мыслить на уровне героев комиксов, которые пускали всю свою изобретательность для того, чтобы приготовить барбекю. Не существует закона, по которому существа с интеллектом должны превращаться в безжалостных монстров.

Вторая ошибка — думать, что интеллект обладает бесконечным потенциалом, и способен решать любую проблему, достигать любой цели. И эти суждения приводят к появлению вопросов из разряда — “когда же интеллект машин станет выше человеческого?” и “когда придет к форме общего искусственного интеллекта?” с богоподобным всеведением и всемогуществом. Интеллект — это приспособления гаджетов: программные модули, которые запрограммированы, как достигать различные цели в разных областях. Люди умеют добывать пищу, завоевывать друзей, влиять на людей, очаровывать возлюбленных, воспитывать детей, путешествовать по миру и преследовать другие цели и мечты свойственные человеку. Компьютеры могут быть запрограммированы на реализацию некоторых действий (распознавание лиц), но им нет дела до других (зачем им очаровывать?), они не будут браться за решение проблем других людей (например, создавать удобный микроклимат или сортировать записи).

Разные проблемы требуют различных решений.

В отличие от демона Лапласа, мифического существа, который знает местоположение и момент любой частицы во вселенной, и подставляет их в физические уравнения и законы, узнавая, что будет в будущем, человек должен соприкасаться с миром и людьми раз за разом для получения подобной информации. Понимание не подчиняется закону Мура: знание подтверждается путем сравнения полученных данных и реального положения вещей, а не путем запуска алгоритма со все большей скоростью. Информация, взятая в интернете, так же не заменит реальных наблюдений. К тому же Big data может и большое число данных, но все равно конечное.

  
  

Именно поэтому разработчики искусственного интеллекта были раздражены последней волной слухов о том, что Общий искусственный интеллект уже почти создан. Насколько я знаю, нет проектов по его созданию, и не только потому, что это будет коммерчески невыгодным, но также и потому, что концепция едва согласована. Конечно, в это десятилетие были разработаны системы, которые могут управлять машинами, делать фотографии, распознавать речь, и одерживать победу в “Своей игре”, “Го” и “Атари”.

Но этот прогресс объясняется не столь пониманием работы интеллекта, а появление более мощных чипов с большим быстродействием, а также большим количеством накопленных данных, которые становятся примерами для обучения машин.

Любая машина — это “ученый идиот”, она не сможет решить задачу, для которой не была создана, но в выполнении своих задач она мастер.

Программа, которая присваивает названия фотографиям, назвала изображения авиакатастрофы — “самолет паркуется на асфальт”. Любая программа оценки игр перестанет выполнять функции, при малейшем изменении в правилах игры. Хотя программы работают все лучше и лучше, никаких признаков сценария “foom” нет. Также ни одна из этих программ не сделала шаг к тому, чтобы завладеть лабораторией или поработить программистов, создавших ее.

Даже если общий искусственный интеллект имел бы стремление к власти, без сотрудничества с людьми, он оставался бы никчемным мозгом в коробке. Рамез Наам, ученый компьютерщик, развенчивает мифы о “foom”, технологической сингулярности и экспоненциальном росте самосовершенствования:

  
Представьте, что вы супер-развитый искусственный интеллект, работающий на каком-то микропроцессоре (или миллионах микропроцессоров). Вдруг вы придумываете новый более мощный и быстродействующий вид микропроцессора, на котором можете работать. Теперь вы должны изготовить его. И те [фабрики изготовители] требуют огромную энергию, им нужны материалы, импортируемые со всего мира, они строят внутренние строго контролируемые помещения, в которых должны быть воздушные шлюзы, фильтры и все виды специализированного оборудования для обслуживания и т. д. Все это требует времени и энергии на приобретение материалов, транспортировку, интеграцию, строительство помещений, производство и испытания. Реальный мир встает на пути вашего саморазвития.
  

Столкновение с реальным миром помешало многим цифровым апокалипсисам. Конечно, можно представить Компьютер Судного дня, который стремиться совершить зло, он универсален, всегда включен и защищен от несанкционированного доступа. Способ справиться с этой угрозой прост — не создавайте такой компьютер.

Сценарии угрозы ИИ человеческому роду

Поскольку образ злого робота становится смешным, и невозможно воспринимать его серьезно, защитники существования человечества придумали новую угрозу. Она не основывалась на истории о Франкенштейне или Големе, теперь она больше похожа на историю о Джине из бутылкие, где третье желание оставляют, чтобы отменить первые два, или на легенду о царе Мидасе, чей дар превращать все в золото обернулся против него самого. Опасность заключается в так называемой проблеме выравнивания границ. То есть мы даем компьютеру некую цель, а дальше беспомощно наблюдаем, как он движется к ней, действуя в рамках своих понятий, игнорируя наши интересы. К примеру, задача поддержания уровня воды на плотине могла бы обернуться затоплением города и гибелью людей. Если бы поставили задачу изготовить скрепки, то компьютер мог бы расценивать все, как материал для производства, включая наше имущество и даже тела. Если бы мы поставили задачу максимизировать счастье для людей, то он мог бы посадить нас на уколы дофамина, или изменил бы наш мозг, так чтобы мы испытывали только радость. А если бы эта задача была подкреплена фотографиями счастливых людей, то он наводнил бы вселенную миллионами наносмайликов.

Это сценарии, которые якобы иллюстрируют экзистенциальную угрозу для человеческого рода от рук передового искусственного интеллекта. Хорошо, что они не могут сбыться. Ведь их реализация возможна если

  1. Люди настолько одарены, что могут спроектировать всезнающий и всемогущий искусственный интеллект, но настолько недалекие, что они дадут ему контроль над Вселенной без проверки того, как он работает,
  2. Этот искусственный интеллект должен быть настолько гениальным, что он бы понял, как модифицировать части тела и перенастраивать мозг человека.

Но это бы в конечном счете привело бы к хаосу, вызванному простым недопониманием среди людей. Умение выбирать лучший вариант достижения цели, это не просто дополнительная опция, которую случайно можно забыть установить, это и есть интеллект. Также, как и умение понимать слова в зависимости от их контекста.

Отбрасываем сценарии «Восстания машин»

Если отбросить в сторону фантастические сценарии, всеведения машин и совершенного контроля над каждой молекулой во вселенной, становится ясно, что искусственный интеллект подобен любой другой технологии. Его разработка идет постепенно, подгоняя его под большое количество задач, проверяя их выполнение до внедрения, уделяя внимание повышению эффективности и безопасности. Как заметил Стюарт Рассел, эксперт по искусственному интеллекту, “Никто из строителей не называет задачи вроде “строительство мостов, которые не падают”, они просто говорят о строительстве мостов”. Он также говорит, что искусственный интеллект не опасен, а полезен.

Внедрение искусственного интеллекта влечет за собой необходимость решения задачи по устройству людей, чьи рабочие места сокращаются из-за автоматизации. Но рабочие места не будут устранены так быстро. Утверждение из доклада NASA от 1965 года по-прежнему справедливо: «Человек — это самая дешевая, 150-фунтовая, универсальная компьютерная система, которая может быть произведена массово неквалифицированной рабочей силой». Вождение машины — более простая задача с точки зрения инженерии, чем задача по разгрузке посудомоечной машины или смены подгузника, но даже при этом мы до сих пор не готовы массово выпускать машины с автопилотом на дороги. До тех пор, пока батальоны роботов не будут строить школы и делать прививки детям в странах третьего мира, или не будут заботятся о пожилых людях здесь у нас, у людей будет масса работы. Та же изобретательность, которую проявляют при создании роботов, очень бы пригодилась в сфере политики и частном секторе, где похоже назревает кризис рабочей силы. Ō

  

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите свой комментарий!
Пожалуйста, введите ваше