Чи можуть організації використовувати мовні моделі штучного інтелекту, такі як ChatGPT, щоб спонукати виборців до певних дій?
Сенатор Джош Хоулі поставив це запитання генеральному директору OpenAI Сему Альтману під час слухань у Сенаті США щодо штучного інтелекту. Альтман відповів, що він справді стурбований тим, що деякі люди можуть використовувати мовні моделі, щоб маніпулювати виборцями.
Ось сценарій, який міг передбачити/мав на увазі Альтман: уявіть, що незабаром політтехнологи розроблять машину під назвою Clogger – політичну кампанію в чорному ящику. Clogger невпинно переслідує лише одну мету: збільшити шанси на те, що його кандидат / кампанія, яка купує послуги Clogger Inc. – переможе на виборах.
У той час як платформи Facebook, Twitter і YouTube, використовують форми штучного інтелекту, щоб змусити користувачів проводити більше часу на їхніх сайтах, ШІ Clogger матиме іншу мету — змінити поведінку людей при голосуванні.
Подібно до того, як зараз рекламодавці використовують вашу історію вебперегляду та соціальні мережі для індивідуального націлювання комерційної та політичної реклами, Clogger зверне увагу на вас – і сотні мільйонів інших виборців – окремо.
Це запропонує три переваги в порівнянні з поточним найсучаснішим алгоритмом маніпулювання поведінкою.
По-перше, його мовна модель створюватиме повідомлення — тексти, соціальні медіа та електронну пошту, можливо, включаючи зображення та відео — спеціально підібрані для вас. Мовні моделі, такі як ChatGPT, можуть генерувати незліченну кількість унікальних повідомлень особисто для вас – і мільйони для інших – протягом кампанії.
По-друге, Clogger використає техніку підкріпленого навчання, щоб генерувати повідомлення, які з більшою ймовірністю змінять ваш голос. Навчання з підкріпленням — це підхід до машинного навчання методом проб і помилок, за якого комп’ютер виконує дії та отримує відгуки про те, що працює краще, щоб навчитися досягати мети. Машини, які можуть грати в го, шахи та багато відеоігор краще за будь-яку людину, використовують навчання з підкріпленням.
По-третє, протягом кампанії повідомлення Clogger можуть змінюватися, щоб враховувати ваші відповіді на попередні розсилки та те, що він дізнався про зміну думок інших. З часом Clogger продовжував би динамічні «розмови» з вами та мільйонами інших людей. Повідомлення Clogger були б схожі на оголошення, які слідкують за вами на різних вебсайтах і в соціальних мережах.
Якщо республіканська президентська партія у США запровадить Clogger у 2024 році, демократична партія, ймовірно, буде змушена відповісти тим же, можливо, за допомогою подібної машини. Назвіть це Dogger.
Контент, який переміг, надійшов би від ШІ, зосередженого виключно на перемозі, без власних політичних ідей, а не від кандидатів чи партій. У цьому дуже важливому сенсі вибори виграла б машина, а не людина. Вибори більше не будуть демократичними, навіть якщо всі звичайні дії демократії – виступи, оголошення, повідомлення, голосування та підрахунок голосів – відбудуться.