Created with Sketch.

Правила для контролю ШІ: країни прокладають різні шляхи для регулювання технологій

09.08.2023, 13:34
Фото: google

Три ключові гравці — США, ЄС і Китай — наразі дотримуються різних підходів до розробки та впровадження штучного інтелекту.

Попри те, що каліфорнійська OpenAI та інші фірми публічно закликали до посилення нагляду, ці компанії чинили опір деяким із запропонованих ЄС заходів контролю та виступали за міжнародні керівні органи та добровільні зобов’язання, а не за нові закони. Тим часом технологія постійно змінюється.

Європейський союз дуже обережний — його майбутній Закон про штучний інтелект зосереджується на забороні одних видів використання та дозволі на інших, водночас вимагаючи обачність, яку повинні дотримуватися фірми ШІ. Сполучені Штати Америки, де розташовано багато провідних компаній зі штучного інтелекту, поки що були найбільш вільними. У Китаї уряд намагається збалансувати інновації зі збереженням жорсткого контролю над корпораціями та свободою слова.

Євросоюз

У червні цього року парламент ЄС прийняв Закон про штучний інтелект — величезний законодавчий акт, який класифікує інструменти ШІ на основі їхнього потенційного ризику. Хоча закон ще може змінитися, оскільки він має бути погоджений усіма трьома голосуючими органами ЄС — Європарламентом, Європейською комісією та Радою ЄС — поточний проект забороняє використання програмного забезпечення, яке створює неприйнятний ризик. Закон про штучний інтелект визначає, що це охоплює більшість видів використання в інтелектуальному контролі, розпізнаванні емоцій і розпізнаванні обличчя в реальному часі.

Багато видів використання програмного забезпечення штучного інтелекту буде дозволено, але з іншими вимогами залежно від їх ризику. Це включає в себе інструменти, які скеровують рішення у сфері соціального забезпечення та кримінального правосуддя, а також ті, які допомагають фірмам вибрати, яких потенційних працівників найняти. Тут закон ЄС вимагає від розробників довести, що їхні системи є безпечними, ефективними, сумісними з конфіденційністю, прозорими, доступними для користувачів і недискримінаційними.

Компанії, які порушують правила, можуть бути оштрафовані на 7% від їх річного прибутку. Вони матимуть приблизно два роки, щоб виконати вимоги після того, як Закон набуде чинності, що може бути не раніше 2025 року.

ЄС вимагатиме від постачальників базових моделей публікації короткого викладу захищеного авторським правом матеріалу, який використовується для їхніх навчальних даних, а також навчання своїх моделей, щоб захистити їх від створення вмісту, що порушує закон. Поточний текст закону також вимагає розкриття інформації, коли контент був створений штучним інтелектом, але це стосується лише певного типу «підробленого» контенту, який без згоди зображує реальних людей, які роблять або говорять те, чого вони не робили.

США

На відміну від ЄС, у Сполучених Штатах немає широких федеральних законів, пов’язаних із штучним інтелектом, ані важливих правил щодо захисту даних.

У жовтні 2022 року Управління наукової та технологічної політики Білого дому (OSTP) справді опублікувало проект, що описує п’ять принципів, якими керуватиметься використання штучного інтелекту, а також можливі нормативні акти. У документі йдеться, що автоматизовані системи мають бути безпечними та ефективними, недискримінаційними, захищати конфіденційність людей і прозорими: люди повинні отримувати сповіщення, коли система приймає рішення за них або щодо них, повідомляти їм, як працює система, і мати можливість відмовитися. або втрутитися людина.

Сполучені Штати Америки також провели слухання в Конгресі та президентські зустрічі щодо регулювання ШІ. У липні сім американських компаній — Amazon, Anthropic, Google, Inflection, Meta, Microsoft і OpenAI — зустрілися з президентом Джо Байденом і оголосили, що вони запровадять заходи безпеки, такі як тестування своїх продуктів, обмеження звітності та робота над водяними знаками, які можуть допомогти ідентифікувати матеріали, створені ШІ. Однак обіцянки розпливчасті та нездійсненні. На слуханнях у Сенаті того місяця Даріо Амодей, голова Anthropic у Сан-Франциско, штат Каліфорнія, закликав прийняти закон, який передбачає обов’язковий аудит і перевірку безпеки для моделей ШІ; він також заявив, що найбільше його хвилюють погані актори, які неправильно використовують системи ШІ.

У жовтні минулого року один закон пройшов через Конгрес. Він вимагає, щоб посадові особи федеральних агентств, які закуповують продукти та послуги ШІ, пройшли навчання щодо того, як працює ШІ. Цього лютого Байден також підписав указ, у якому коротко згадується вимога «запобігати та виправляти … алгоритмічну дискримінацію», але знову ж таки, це стосується лише федеральних відомств.

Деякі штати та міста США вже мають власні правила, пов’язані зі штучним інтелектом. В Іллінойсі закон 2020 року вимагає від фірм оголосити та пояснити використання штучного інтелекту для аналізу співбесід при працевлаштуванні, а в штаті вже давно діє закон, який дозволяє громадянам подавати до суду за зловживання біометричними даними, включаючи сканування, що використовується для розпізнавання обличчя.

Китай

Наразі Китай видав найбільше законів щодо штучного інтелекту, хоча вони стосуються систем штучного інтелекту, які використовуються компаніями, а не урядом. Закон 2021 року вимагає від компаній бути прозорими та неупередженими під час використання персональних даних у автоматизованих рішеннях, а також дозволяти людям відмовлятися від таких рішень. А набір правил щодо алгоритмів рекомендацій від 2022 року від Управління кіберпростору Китаю (CAC) говорить, що вони не повинні поширювати фейкові новини, викликати залежність користувачів від контенту або сприяти суспільним заворушенням.

У січні CAC почав застосовувати правила, видані в 2022 році для боротьби з глибокими фейками та іншим контентом, створеним штучним інтелектом. Постачальники послуг, які синтезують зображення, відео, аудіо або текст, повинні перевіряти особистість користувачів, отримувати згоду від цілей deepfake, водяних знаків і журналів, а також протидіяти будь-якій дезінформації.

І цього місяця CAC почне застосовувати інші правила, спрямовані на генеративні інструменти, такі як ChatGPT і DALL-E. У них сказано, що фірми повинні запобігати поширенню неправдивого, приватного, дискримінаційного чи насильницького контенту або будь-чого, що підриває китайські соціалістичні цінності.

Деякі інші країни чітко заявили про свої цілі щодо регулювання ШІ. Уряд Канади запровадив Закон про штучний інтелект і дані, який обіцяє вимагати прозорості, недискримінації та заходів безпеки для, як він називає, систем штучного інтелекту «високого впливу» (вони ще не визначені). Сполучене Королівство, яке цього року приймає саміт з безпеки штучного інтелекту, опублікувало Білу книгу в березні, в якій описується «проінноваційний» підхід, у якому не планується жодних нових правил. Однак Закон ЄС про штучний інтелект може вплинути на компанії в усьому світі, так само як GDPR вплинув на роботу глобальних технологічних компаній. Деякі китайські правила штучного інтелекту можуть вплинути на роботу компаній в інших країнах, хоча Гріммельман каже, що компанії можуть змінити свої послуги штучного інтелекту для різних ринків.

Також ведуться дискусії щодо можливих міжнародних угод. Рада Європи розробляє проект договору, який регулюватиме вплив ШІ на права людини, але країни можуть відмовитися від деяких його правил. Генеральний секретар ООН Антоніу Гутерріш також припустив, що може знадобитися новий орган ООН для управління ШІ.

Компанії, що займаються штучним інтелектом, загалом припускають, що міжурядові угоди будуть необхідні, але не мають чітких думок щодо того, що потрібно узгодити та як це можна забезпечити. Наприклад, у липні лондонська компанія Google DeepMind і деякі з її академічних співробітників запропонували створити глобальну передову організацію управління штучним інтелектом, яка б встановлювала стандарти та могла стежити за їх дотриманням, хоча фірма мало посилалася на правозастосування.