Искусственный интеллект уничтожит человечество?

Футурологи считают, что нам грозит не восстание машин, а собственная глупость.

Shutterstock

По мнению футурологов, главная проблема с искусственным интеллектом состоит в том, что мы не сможем правильно управлять тем, кто умнее и могущественнее нас.

В кинематографе вопрос о восстании машин был окончательно и бесповоротно решен после выхода культового фильма «Терминатор-2». А поскольку кино для нас по-прежнему важнейшее из искусств, то массовый зритель убежден, что развитие машинного интеллекта рано или поздно приведет к войне роботов и людей. В свою очередь, среди людей науки нет единого мнения относительно способности алгоритмов поработить человечество. Ученые обсуждают несколько совершенно разных сценариев развития отношений между людьми и умными железяками. Давайте разберем самые популярные из них.

Сценарий № 1:

Война с роботами

Битва искусственного интеллекта (ИИ) против человечества - наиболее традиционный вариант конца мира, по крайней мере в массовом сознании. И, надо сказать, этот сюжет стал вполне реалистичным.

Первым звонком было поражение Гарри Каспарова в шахматном матче против суперкомпьютера Deep Blue в 1997 году. А спустя 23 года финальным аккордом стала безоговорочная победа алгоритма компании Heron Systems над пилотом истребителя F-16 в финале соревнований «Машина против человека», которые в 2020 году проводило Агентство перспективных исследовательских проектов министерства обороны США. Летчик с позывным «Бангер» (его настоящее имя не разглашается) и искусственный интеллект вели воздушный бой с помощью авиасимуляторов, которые используются для подготовки пилотов в учебном центре ВВС. Алгоритм впервые выиграл пять поединков из пяти и ни разу не дал своему противнику из крови и плоти шанса открыть ответный огонь: «Бангер» все свое время потратил на маневры и уклонения, но так и не смог выйти на позицию для атаки.

Военные пока не собираются заменять живого пилота на робота, но технологии искусственного интеллекта все шире применяются в пилотируемой военной технике. Так что, видимо, летчикам рано или поздно придется отдать штурвал самообучающимся программам.

Если дело пойдет такими темпами, то еще через два десятилетия алгоритмы машинного обучения будут способны полностью заменить летчиков и командиров других боевых машин. И если искусственному разуму взбредет в голову перехватить контроль над управлением военной техникой, то противостоять железному дровосеку будет некому.

ПРОГНОЗ:

При желании машины легко могут покончить с человечеством. Но все же такое развитие событий маловероятно. Дело в том, что большинство ученых считают, что у суперкомпьютера нет человеческих эмоций и желаний. А значит, у него не может быть мотивов для захвата власти и уничтожения кого бы то ни было.

Сценарий № 2:

Людей погубит синдром старика Хоттабыча

По мнению Сьюзан Шнайдер, руководителя Центра ра­зума будущего Атлантического университета Флориды, главная проблема с ИИ заключается в том, что мы не сможем правильно управлять тем, кто умнее и могущественнее нас. Суперкомпьютер может просто не понять, что именно мы от него хотим.

Эту тему хорошо описывают классические истории про джинна из волшебной лампы и исполнение трех желаний, в результате чего повелитель лампы получает одни проблемы. Например, когда в качестве третьего желания повелитель лампы попросил сделать его семью счастливой, то сам он исчез, а джинн женился на его жене.

Или взять миф про царя Мидаса, который попросил у богов даровать ему способность превращать в золото любой предмет, к которому он прикоснется. В результате в золото превращалась еда, которую Мидас ел, и вода, которую он пил.

Поэтому Сьюзан Шнайдер и некоторые ее коллеги предупреждают: человечество должно опасаться своих желаний, их исполнение искусственным интеллектом приведет к непредсказуемым последствиям. В качестве примера алармисты приводят знаменитый кейс со скрепками, когда компания-производитель канцелярских товаров может неправильно настроить алгоритм ИИ. В этом случае искусственный интеллект может разрушить планету, превращая любую материю в скрепки.

Сторонники этой теории убеждены: нам угрожает не восстание машин, а сценарий из сатирической Премии Дарвина. Ее визитной карточкой стала легендарная (но выдуманная) история про смотрителя зоопарка, который дал слону слабительное и утонул в навозе, решив усилить действие лекарства клизмой.

Иными словами, человечество ждет не только печальный, но и глупый конец.

ПРОГНОЗЫ:

С одной стороны, опасность такого поворота событий сильно преувеличена. Все-таки сложно ожидать от ИИ сочетания высокой эффективности и одновременно нелепости, свойственной персонажам мультфильма «Вов­ка в Тридевятом царстве», которых мы знаем как «двое из ларца». Последние, как вы помните, не только добывали для Вовки конфеты и мороженое, но и сами их ели. Кажется, такие перекосы легко исправить, загрузив в электронный мозг некий моральный кодекс. Но, по мнению Сьюзан Шнайдер, человечество не способно создать свод этических правил, с которыми были бы согласны все. Кто-то категорически не приемлет физическое наказание детей, для других такое табу - покушение на традиционные ценности.

Сценарий № 3:

Сверхразум воспользуется нашей биологической уязвимостью

Допустим, в один прекрасный день искусственный интеллект решит, что ему необходимо избавиться от людей. Причем из благих побуждений. Например, если человечество окажется на пороге глобальной ядерной войны, то, с точки зрения продолжения жизни на Земле, разумнее избавиться от сошедшего с ума господствующего вида, но сохранить планету. Как в этом случае будет действовать алгоритм? Вряд ли он станет придерживаться правил ведения войны, которые существуют в голове у наших генералов. ИИ легко обойдется без крупномасштабных боевых действий.

Скорее всего, он воспользуется нашими слабостями как биологического вида. Достаточно просто лишить нас ключевых ресурсов, критически важных для выживания, считает канадский футуролог Джордж Дворски. Например, снизить уровень атмосферного кислорода. Без него мы можем прожить всего несколько минут.

На другую уязвимость еще в первые дни пандемии SARS-CoV-2 указал Роман Ямпольский, директор лаборатории компьютерной безопасности в Университете Луисвилля (США). «IQ этого вируса равен нулю, и он надирает нам зад­ницу. Чтобы обезопасить себя от угроз ИИ, мы должны быть готовы бороться с компьютерными вирусами, IQ которых равен 1000 и выше»,  - написал он в своем Твиттере.

И действительно, новый коронавирус парализовал жизнь на планете, хотя на него обрушилась вся мощь цивилизации. При этом он два года противостоит ограничительным мерам, вакцинам, маскам, локдаунам только с помощью случайных мутаций и естественного отбора - так появляются новые более заразные штаммы, способные обходить защиту иммунной системы. Страшно подумать, что может случиться, если опасный для человека вирус будет сконструирован суперкомпьютером, который будет постоянно совершенствовать эту смертоносную машину.

ПРОГНОЗЫ:

Шансы того, что ИИ выйдет из-под контроля человека, довольно велики. Уже сейчас ученые не в состоянии понять, каким образом само­обучающиеся алгоритмы обыгрывают людей в покер, и то, как рисуют картины, переводят тексты и пишут газетные колонки. Мы и сейчас доверяем ИИ слишком многое  - он управляет работой атомных станций, отвечает за технологические циклы в сложных промышленных производствах, контролирует львиную долю биржевой торговли.

Чтобы люди могли успевать за ходом мысли искусственного интеллекта, Илон Маск разрабатывает «нейронное кружево»  - интерфейс, который может объединить в одну систему мозг человека и компьютер. По мнению Маска, это единственный способ избежать морального устаревания человечества и понимать, что происходит в мозгах наших электронных братьев по разуму.