Дослідники десятиліттями попереджали про потенційні ризики, пов'язані з суперінтелектом
Компанія OpenAI, яка розробляє ChatGPT, закликала до регулювання "надрозумних" штучних інтелектів, щоб захистити людство від ризику випадкового створення чогось, здатного його знищити.
Про це повідомляє британське видання The Guardian.
У короткій записці, опублікованій на сайті компанії, співзасновники Грег Брокман та Ілля Суцкевер і генеральний директор Сем Альтман закликають міжнародного регулятора почати роботу над тим, як "перевіряти системи, вимагати проведення аудитів, тестувати на відповідність стандартам безпеки, накладати обмеження на ступінь розгортання і рівень безпеки", щоб знизити "екзистенційний ризик", який можуть становити такі системи.
У короткостроковій перспективі трійця закликає до "певного рівня координації" між компаніями, що працюють на передовій досліджень у галузі ШІ, щоб забезпечити плавну інтеграцію розробки дедалі потужніших моделей у суспільство, надаючи водночас пріоритет безпеці.
Така координація може здійснюватися, наприклад, через проєкт під керівництвом уряду або через колективну угоду про обмеження зростання можливостей ШІ.
Дослідники десятиліттями попереджали про потенційні ризики, пов'язані з суперінтелектом, але з розвитком ШІ ці ризики стали більш конкретними.
Американський Центр безпеки штучного інтелекту (CAIS), який працює над тим, щоб "зменшити суспільні ризики від штучного інтелекту", описує вісім категорій "катастрофічних" та "екзистенційних" ризиків, які може становити розвиток ШІ.
Лідери OpenAI кажуть, що ці ризики означають, що "люди в усьому світі повинні демократично розв'язувати питання про межі та налаштування систем ШІ", але визнають, що "ми ще не знаємо, як розробити такий механізм".
Втім, вони зазначають, що подальший розвиток потужних систем вартий ризику.