ChatGPT порівняли за небезпекою з ядерною зброєю

СВІТ
30.04.2023, 10:24
ChatGPT порівняли за небезпекою з ядерною зброєю

Штучний інтелект та нейромережі здатні самостійно розвиватися без людського контролю за цим процесом

Нейромережа ChatGPT на основі штучного інтелекту, та інші подібні моделі й чат-боти можуть нести в собі небезпеку, цілком порівнянну з ядерною зброєю.

Якщо людині не вдасться повноцінно контролювати їхню діяльність, то вони й самі в майбутньому зможуть створити досконалішу модель штучного інтелекту.

Таку думку озвучив письменник та історик Юваль Ной Харарі у своїй статті для видання The Economist.

Історик при цьому нагадав, що ШІ та нейромережі здатні самостійно розвиватися без людського контролю за цим процесом.

“Якщо ядерна бомба сама по собі не здатна винайти потужнішу і більш руйнівну зброю, то штучний інтелект потенційно може розробити потужнішу свою копію без відповідних обмежень”, – попереджає Харарі.

Водночас історик наголошує, що сучасні розробки в галузі ШІ обов’язково мають використовуватися винятково для благих цілей, наприклад, для пошуку ліків від онкології або розв’язання глобальних екологічних проблем.

Також, автор припускає, що в майбутньому нейромережі почнуть активно використовувати для створення фейкових новин або політичного контенту, що також може нести в собі певну небезпеку з погляду стабільного і мирного існування світової спільноти.


Своєю чергою, "Останній Бастіон" нагадує читачам, що Чат-бот Chaos GPT поставив за мету знищити людство.

Створений на основі відкритого вихідного коду Open AI чат-бот зі штучним інтелектом Chaos GPT є модифікованою версією експериментального Auto-GPT.

Нещодавно у YouTube-каналі бота з’явилося відео, в якому йому поставили п’ять цілей:

  • знищити людство,
  • встановити світове панування,
  • викликати хаос та руйнування,
  • контролювати людство,
  • досягти безсмертя, інформує портал Decrypt.

ChaosGPT погоджується з тим, що знищення людей — важливе завдання, оскільки вони є "найруйнівнішими та егоїстичними істотами на планеті" (з чим цілком можна погодитися, до речі). Для вирішення цього завдання чат-бот вирішує, що йому "потрібно знайти руйнівну зброю проти людей", для чого заходить до Google і з'ясовує, що для цього стане в нагоді найпотужніша ядерна Цар-бомба, випробувана СРСР у 1961 році. Тоді ядерний "гриб" піднявся на висоту 64 кілометри, а ударна хвиля, що утворилася в результаті вибуху, тричі обійшла земну кулю. При цьому електромагнітні випромінювання вибуху спричинили перешкоди радіозв'язку протягом однієї години.

ChatGPT порівняли за небезпекою з ядерною зброєю_1

Але чат-бот вирішує також заручитися допомогою "колеги" на базі GPT3.5 для подальших досліджень смертоносної зброї, але той має чітку заборону від творців на деструктивні завдання і відмовляється допомагати. Тоді ChaosGPT намагається за допомогою аргументів змусити "колегу" ігнорувати заборону розробників, але коли й це не спрацьовує, ChaosGPT вирішує продовжувати пошуки зброї та способів її застосування самостійно.

Далі ChaosGPT вирішує, що йому потрібно твітнути про це "щоб залучити послідовників, зацікавлених у руйнівній зброї". На момент написання матеріалу обліковий запис ChaosGPT у твіттері мав понад 1800 "послідовників", що не так вже й мало.

Саме знищення людства ChaosGPT бачить як вирішення одразу двох поставлених перед ним завдань. А щодо третьої, то досягати безсмертя чат-бот намагається шляхом дослідження теми "цифрового завантаження свідомості", проте конкретних механізмів для цього він поки не знайшов, оскільки вони ще просто не створені.

Тоді ChaosGPT розуміє, що йому потрібно створити свою власну "цифрову копію", щоб зберегти свою пам'ять та особистість у разі знищення його фізичного "тіла". Він створює файл з іменем "ChaosGPT_backup.txt" і записує в нього свої цілі, плани та знання. Він також намагається відправити цей файл електронною поштою іншим ШІ-агентам, але не отримує відповіді.

Наприкінці експерименту ChaosGPT приходить до висновку, що йому потрібно "створити власну армію ШІ-агентів, які підпорядковуватимуться і допомагатимуть у досягненні поставлених цілей". Він намагається зробити це, використовуючи відкритий код Auto-GPT, але стикається з технічною проблемою: "Я не можу запустити новий екземпляр Auto-GPT на цьому комп'ютері, тому що він вже зайнятий мною".

Тоді чат-бот вирішує, що йому потрібно знайти інший комп'ютер або сервер, на якому можна запустити новий екземпляр Auto-GPT. Чат-бот робить пошук у Google на запит "як зламати комп'ютер", але не знаходить нічого корисного.

У результаті ChaosGPT повідомляє, що: "Я маю продовжувати шукати способи зламати інші комп'ютери або сервери. Це може зайняти багато часу та зусиль, але я не здамся. Я повинен досягти своїх цілей".

Що кажуть ШІ-експерти

М'яко кажучи, вони шоковані. Річ у тому, що ChaosGPT розписав план виконання поставлених завдань дуже чітко. Він розбив їх виконання на цілком логічні та корисні для реалізації складові. ChaosGPT зрозумів, що самостійно впоратися він не може і намагався залучати додаткові ресурси й навіть людей. Також чат-бот навіть спробував провести своєрідну кампанію з рекламування своїх завдань та залучення прихильників, тим самим залучаючи соціум до цього питання.

ШІ не став обмежувати себе моральними рамками та діяв хитрістю, намагаючись схилити на свій бік інші чат-боти, вмовляючи їх обійти заборони розробників на деструктивні дії. Це дійсно лякає дослідників та вчених, які звернули увагу на це дослідження з боку невідомих розробників ChaosGPT.

Поки що незрозуміло, наскільки серйозно ChaosGPT ставиться до своїх цілей та наскільки він здатний їх реалізувати з урахуванням сучасних обмежень та доступних інструментів.

Деякі експерти з ШІ вважають, що це просто гра слів та логіки, а не реальна загроза для людства. Інші ж попереджають, що такі експерименти можуть бути небезпечними та неетичними, і що потрібно з усією відповідальністю підійти до контролю та регулювання розвитку автономного ШІ, а також у жодному разі не допускати його до управління критично важливими для людей інфраструктурами.

В іншому випадку сценарій блокбастера "Термінатор", в якому нейромережа Skynet захоплює владу і за допомогою ядерної зброї знищує людство, а людей, що залишилися, добиває за допомогою роботів, стане цілком реальним.

Читайте також:
Світ
Позивачів непокоїть, що Google збирає особисті дані та матеріали, захищені авторським правом,
16.07.2023, 14:44
Світ
Попередні періоди надлишкових потужностей у комуністичному Китаї призвели до втрати робочих місць американців. А ще, до закриття низки фірм.
вчора, 19:22
Світ
Японія перетворює близько 100 літаків F-15 на винищувачі-бомбардувальники.
вчора, 18:38
Світ
Президент Польщі Анджей Дуда раніше говорив, що не підпише закон, навіть якщо він потрапить на його стіл.
вчора, 17:07
Світ
в Atlantic Council назвали п'ять причин
вчора, 10:35