Отримання системами ШІ інстинкту виживання може становити серйозну небезпеку для людства.
У світлі закликів до зупинення розробки більш потужних систем штучного інтелекту газета The Guardian зібрала думки провідних дослідників ШІ щодо потенційних загроз, які можуть виникнути, якщо контроль над ним буде втрачено або він буде використаний для зловмисних цілей.
Прогнози цих експертів викликають на сполох. Розвиток штучного інтелекту просувається стрімко. Вже у 2016 році нейромережа написала роман, який посів друге місце на літературному конкурсі у Японії.
У різних частинах світу відбуваються виставки картин, створених штучним інтелектом. Одна з таких робіт була продана за сотні тисяч доларів на аукціоні у Нью-Йорку.
Однак що станеться, якщо люди одного разу втратить контроль над цими системами. Тим більше, що вже сьогодні вони починають витісняти людей із різних професій, навіть творчих. Наприклад, у червні “розумний” американський дрон спробував атакувати оператора, оскільки останній наказав не знищувати ціль. На щастя, це були лише імітаційні випробування, але експерти вважають, що такі випадки можуть стати повсякденністю в майбутньому.
Макс Тегмарк, фахівець із дослідження ШІ з Массачусетського технологічного інституту, попереджає про можливість знищення людей у разі, якщо вони стануть менш розумним видом у порівнянні з нейромережами.
“Це траплялося багато разів до того, як цей вид був знищений іншими, які були розумнішими. Ми, люди, вже знищили значну частину всіх видів Землі. Саме цього нам слід очікувати як менш розумного виду, яким ми, ймовірно, станемо з огляду на темпи прогресу штучного інтелекту. Складність у тому, що види, які будуть знищені, часто не мають поняття, чому чи як”, – упевнений Тегмарк.
Можна уявити собі кошмарну ситуацію: якщо системам штучного інтелекту буде притаманний інстинкт виживання, то, чого зараз ще немає, фактично буде створено новий вид. Отримання системами ШІ такого інстинкту може становити серйозну небезпеку для людства.
Можливе створення систем ШІ без автономності через можливі невдалі події. Але навіть якщо знайдеться спосіб створення повністю безпечної системи ШІ, знання цієї методики саме по собі може стати вказівкою на те, як створити небезпечну автоматизовану систему або систему, яка виконуватиме доручення когось із поганими намірами.