Array ( [0] => 2829 [1] => 2836 [2] => 2850 [3] => 2860 [4] => 2871 [5] => 2883 [6] => 2890 [7] => 2898 [8] => 2921 ) 1
0
17 квiтня
Завантажити ще

Штучний інтелект знищить людство?

Штучний інтелект знищить людство?
Фото: Shutterstock

На думку футурологів, головна проблема зі штучним інтелектом полягає в тому, що ми не зможемо правильно управляти тим, хто розумніший і могутніший за нас.

У кінематографі питання про повстання машин було остаточно та безповоротно вирішено після виходу культового фільму « Термінатор-2 ». А оскільки кіно для нас, як і раніше, найважливіше з мистецтв, то масовий глядач переконаний, що розвиток машинного інтелекту рано чи пізно призведе до війни роботів та людей. У свою чергу серед людей науки немає єдиної думки щодо здатності алгоритмів поневолити людство. Вчені обговорюють кілька абсолютно різних сценаріїв розвитку відносин між людьми та розумними залізняками. Давайте розберемо найпопулярніші з них.

Сценарій № 1:

Війна з роботами

Битва штучного інтелекту (ІІ) проти людства – найбільш традиційний варіант кінця світу, принаймні у масовій свідомості. І, слід сказати, цей сюжет став цілком реалістичним.

Першим дзвінком була поразка Гаррі Каспарова у шаховому матчі проти суперкомп'ютера Deep Blue у 1997 році. А через 23 роки фінальним акордом стала беззаперечна перемога алгоритму компанії Heron Systems над пілотом винищувача F-16 у фіналі змагань "Машина проти людини", які у 2020 році проводило Агентство перспективних дослідницьких проектів міністерства оборони США. Льотчик із позивним «Бангером» (його справжнє ім'я не розголошується) та штучний інтелект вели повітряний бій за допомогою авіасимуляторів, які використовуються для підготовки пілотів у навчальному центрі ВПС. Алгоритм вперше виграв п'ять поєдинків з п'яти і жодного разу не дав своєму супротивникові з крові та плоті шансу відкрити вогонь у відповідь: «Бангер» весь свій час витратив на маневри та ухилення, але так і не зміг вийти на позицію для атаки.

Військові поки що не збираються замінювати живого пілота на робота, але технології штучного інтелекту все ширше застосовуються у пілотованій військовій техніці. Отже, мабуть, льотчикам рано чи пізно доведеться віддати штурвал програмам, що самонавчаються.

Якщо справа піде такими темпами, то через два десятиліття алгоритми машинного навчання будуть здатні повністю замінити льотчиків і командирів інших бойових машин. І якщо штучному розуму спаде на думку перехопити контроль над управлінням військової технікою, то протистояти залізному дроворубу буде нікому.

ПРОГНОЗ:

За бажання машини легко можуть покінчити з людством. Але все ж таки такий розвиток подій малоймовірний. Справа в тому, що більшість учених вважають, що суперкомп'ютер не має людських емоцій і бажань. А значить, у нього не може бути мотивів для захоплення влади та знищення будь-кого.

Сценарій № 2:

Людей погубить синдром старого Хоттабича

На думку Сьюзан Шнайдер, керівника Центру розуму майбутнього Атлантичного університету Флориди, головна проблема з ІІ полягає в тому, що ми не зможемо правильно керувати тим, хто розумніший і могутніший за нас. Суперкомп'ютер може просто не зрозуміти, що ми від нього хочемо.

Цю тему добре описують класичні історії про джина з чарівної лампи та виконання трьох бажань, внаслідок чого повелитель лампи отримує одні проблеми. Наприклад, коли як третє бажання повелитель лампи попросив зробити його сім'ю щасливою, то сам він зник, а джин одружився з його дружиною.

Або взяти міф про царя Мідаса, який попросив у богів дарувати йому здатність перетворювати на золото будь-який предмет, якого він торкнеться. В результаті в золото перетворювалася їжа, яку Мідас їв, та вода, яку він пив.

Тому Сьюзан Шнайдер та деякі її колеги попереджають: людство має побоюватися своїх бажань, їхнє виконання штучним інтелектом призведе до непередбачуваних наслідків. Як приклад алармісти наводять знаменитий кейс із скріпками, коли компанія-виробник канцелярських товарів може неправильно настроїти алгоритм ІІ. У цьому випадку штучний інтелект може зруйнувати планету, перетворюючи будь-яку матерію на скріпки.

Прибічники цієї теорії переконані: нам загрожує не повстання машин, а сценарій із сатиричної Премії Дарвіна. Її візитною карткою стала легендарна (але вигадана) історія для наглядача зоопарку, який дав слону проносне і потонув у гною, вирішивши посилити дію ліків клізмою.

Інакше кажучи, людство чекає як сумний, а й дурний кінець.

ПРОГНОЗИ:

З одного боку, небезпека такого повороту подій дуже перебільшена. Все-таки складно очікувати від ІІ поєднання високої ефективності та одночасно безглуздості, властивої персонажам мультфільму «Вовка у Тридев'ятому царстві», яких ми знаємо як «двоє з скриньки». Останні, як ви пам'ятаєте, не лише видобували для Вовки цукерки та морозиво, а й самі їх їли. Здається, такі перекоси легко виправити, завантаживши в електронний мозок моральний кодекс. Але, на думку Сьюзан Шнайдер, людство не здатне створити зведення етичних правил, з якими були б згодні всі. Хтось категорично не приймає фізичне покарання дітей, іншим таке табу - замах на традиційні цінності.

Сценарій № 3:

Надрозум скористається нашою біологічною вразливістю

Припустимо, одного прекрасного дня штучний інтелект вирішить, що йому необхідно позбутися людей. Причому із добрих спонукань. Наприклад, якщо людство опиниться на порозі глобальної ядерної війни, то, з погляду продовження життя на Землі, розумніше позбутися божевільного вигляду, що збожеволів, але зберегти планету. Як у цьому випадку діятиме алгоритм? Навряд чи він дотримуватиметься правил ведення війни, які існують у голові у наших генералів. ІІ легко обійдеться без великомасштабних бойових дій.

Швидше за все, він скористається нашими слабкостями як біологічний вид. Досить просто позбавити нас ключових ресурсів, критично важливих для виживання, вважає канадський футуролог Джордж Дворскі. Наприклад, знизити рівень атмосферного кисню. Без нього ми можемо прожити лише кілька хвилин.

На іншу вразливість ще перші дні пандемії SARS-CoV-2 вказав Роман Ямпольський, директор лабораторії комп'ютерної безпеки в Університеті Луїсвілля (США). «IQ цього вірусу дорівнює нулю, і він надирає нам дупу. Щоб убезпечити себе від загроз ІІ, ми маємо бути готові боротися з комп'ютерними вірусами, IQ яких дорівнює 1000 і вище», - написав він у своєму Твіттері.

Новий коронавірус паралізував життя на планеті, хоча на нього обрушилася вся міць цивілізації. При цьому він два роки протистоїть обмежувальним заходам, вакцинам, маскам, локдаунам лише за допомогою випадкових мутацій та природного відбору – так з'являються нові більш заразні штами, здатні обходити захист імунної системи. Страшно подумати, що може статися, якщо небезпечний для людини вірус буде сконструйований суперкомп'ютером, який постійно вдосконалюватиме цю смертоносну машину.

ПРОГНОЗИ:

Шанси того, що ІІ вийде з-під контролю людини, досить великі. Вже зараз учені не в змозі зрозуміти, яким чином алгоритми, що самонавчаються, обігрують людей у покер, і те, як малюють картини, перекладають тексти і пишуть газетні колонки. Ми і зараз довіряємо ІІ дуже багато - він керує роботою атомних станцій, відповідає за технологічні цикли у складних промислових виробництвах, контролює левову частку біржової торгівлі.

Щоб люди могли встигати за ходом думки штучного інтелекту, Ілон Маск розробляє «нейронне мереживо» - інтерфейс, який може поєднати в одну систему мозок людини та комп'ютер. На думку Маска, це єдиний спосіб уникнути морального старіння людства та розуміти, що відбувається у мізках наших електронних братів за розумом.