Превращенные в снаряды дроны, фейковые видео, манипулирующие общественным сознанием, и автоматизированный компьютерный взлом - вот три основные угрозы, которые, по мнению экспертов, исходят от искусственного интеллекта, попавшего в плохие руки, сообщил ВВС.
Согласно отчету "Вредоносное использование искусственного интеллекта", он вполне может использоваться странами-изгоями, преступниками и террористами. 100-страничный доклад определяет три сферы - цифровую, физическую и политическую, в которых злонамеренное использование ИИ наиболее вероятно.
В составлении доклада также участвовали некоммерческая исследовательская компания OpenAI, группа по управлению цифровыми правами Electronic Frontier Foundation и Центр новых подходов к охране безопасности США.
Авторы этого доклада призывают к следующему:
- Политики и инженеры-разработчики должны совместно определить, каким именно может быть вредоносное использование ИИ и как это предотвратить
- Осознать, что в то время как ИИ имеет множество разнообразных применений, это обоюдоострая технология, поэтому ученые и разработчики должны это учитывать и упреждать возможное злонамеренное использование ИИ
- Перенять подход, который существует, к примеру, в сфере компьютерных технологий, где уже выработаны предохранительные меры против подобных рисков
- Активное расширение круга заинтересованных сторон, связанных с упреждением и смягчением рисков злонамеренного использования ИИ.
Специалист Центра по изучению экзистенциальных рисков при Кембриджском университете Шахар Авин отметил, что в докладе основное внимание уделяется областям ИИ, которые уже доступны или, вероятно, будут доступны в ближайшие пять лет, но нет взгляда в более отдаленную перспективу.
Он также обрисовал несколько сценариев, где ИИ может вдруг в ближайшем будущем "сорваться":
- Такая программа, как AlphaGo - ИИ, разработанный компанией Google DeepMind, способный обыграть человека в игру го - может быть использована хакерами для нахождения шаблонов данных и уязвимости кодировки
- Некий отдельно взятый злоумышленник может купить дрон, оснастить его программой распознавания лиц и с помощью него напасть на какого-то конкретного человека
- Боты могут быть автоматизированы на производство фейковых видеоклипов с целью политических манипуляций
- Хакеры могут использовать синтезированную речь для того, чтобы выдать себя за кого-то.
Научный сотрудник Института будущего человечества Оксфордского университета Майлз Брандидж считает, что "ИИ изменит существующие угрозы для отдельных граждан, организаций и государств - будь то на уровне преступников, которые настроят машины на взлом или фишинг информации у отдельных лиц, или же это будет внедрение в частную жизнь путем слежения, профилирования личности и дальнейших репрессий - полный спектр воздействия этого на безопасность огромен".
- Очень часто так бывает, что системы ИИ не просто достигают человеческого уровня производительности, но намного его превосходят. Это очень печально, однако необходимо рассмотреть те последствия, к которым могут привести сверхчеловеческого уровня хакерство, слежка, методы убеждения и распознавание физической цели, а также возможности ИИ, которые хоть и не достигают человеческого уровня, но тем не менее гораздо лучше варьируются, чем человеческий труд, - полагает ученый.
Шон О'Хэггерти, исполнительный директор Центра по изучению экзистенциальных рисков и один из соавторов доклада, добавляет: "Искусственный интеллект кардинально все меняет, и этот доклад размышляет над тем, как мир может измениться в следующие 5-10 лет. Мы живем в мире, который может быть подвержен ежедневной опасности злоупотребления ИИ, и мы должны начать заниматься этой проблемой, потому что эти риски вполне реальны".
ЧИТАЙТЕ ТАКЖЕ:
Искусственный интеллект научился предсказывать дату смерти человека
Ученые хотят дать смертельно больным пациентам перед уходом из жизни завершить некие важные по их мнению дела, а не тратить это драгоценное время на ненужное и болезненное лечение в больницах.