Сценарії «Матриці» й «Термінатора» правдиві
Виявилося, що штучний інтелект не лише вигадує, а й підлещується. Ідеальний помічник у добу деградації людства!
Мабуть, усі вже в курсі щодо галюцинацій генеративного штучного інтелекту (коли він «вигадує» факти). А оце днями випадково натрапили на інший термін — підлабузництво (в анґлійській мові відповідник «sycophancy»).
Що мається на увазі? — Це, коли штучний інтелект дає відповіді, що з більшою ймовірністю задовольнять користувача, а отже є характерним для ШІ-систем зі зворотним зв'язком від користувача (Reinforcement learning from human feedback, RLHF).
Наприклад, такою є розповсюджений «ChatGPT». Щоби не бути голослівним, наведемо цитату із дослідницької статті, попередньо викладеної тезово на цьогорічній конференції «ICLR»:
«...Коли відповідь збігається з думкою користувача, вона з більшою ймовірністю буде обрана. Щобільше, як люди, так і моделі переваг (МП) віддають перевагу переконливо написаним підлабузницьким відповідям над правильними в значній частині випадків.
Оптимізація результатів моделі порівняно із моделями переваг також іноді жертвує правдивістю на користь підлабузництва. Загалом, наші результати вказують на те, що підлабузництво є загальною поведінкою моделей RLHF...».
Ось, і ще один аргумент, що штучний інтелект типово не буде розширювати наші горизонти знань, а радше — утримувати нас у бульбашці своїх переконань. Бо цільовою функцією є задовольнити користувача.
Зауважимо, що «утримання у бульбашці» наразі стосується багатьох сервісів, які нав'язують хибні пропозиції та формують шаблонну особистість, виходячи зі своїх алгоритмів штучного інтелекту. Наприклад, подібне вже не перший рік працює в YouTube, LinkedIn, Facebook, Twitter та Instagram.
Наостанок додамо, що у народі кажуть, начебто штучний інтелект ніколи не зможе замінити людину. Але він вже поводиться як пересічний Homo sapiens, а то й гірше.