Штучний інтелект також може «тупішати» через меми — дослідження

вчора, 13:38
Штучний інтелект також може «тупішати» через меми — дослідження

Дослідники виявили, що споживання неякісного контенту може викликати когнітивне зниження у великих мовних моделях (LLM) ШІ.

Про це ідеться у роботі групи американських дослідників, на яке звернуло увагу DTF Magazine. Ця робота нині опублікована як препринт і ще проходить рецензування.

Дослідники перевіряли гіпотезу, що brain rot — низькоякісний, сенсаційний, фрагментарний і популярний контент з інтернету — спричиняє стійке когнітивне погіршення не лише у людей, але й у моделей штучного інтелекту.

Для дослідження вони використали чотири моделі — Llama3 та три версії моделі Qwen. Їх «годували» дописами з Х (колишній Twitter). «Сміттєвий» набір даних включав популярний контент, розроблений для привернення уваги за допомогою мінімальної інформації: клікбейтні теми, повторювані коментарі до мемів, дописи, що викликають обурення, та алгоритмічно згенеровані списки.

На відміну від контрольної групи, безперервне донавчання чотирьох моделей на «сміттєвому» наборі даних спричинило суттєве зниження «здатності до міркування», гірше розуміння довгих контекстів, ослабленні етичних норм та появу «небажаних соціальних рис особистості», як от ознаки психопатії чи нарцисизму.

Основною «патологією» дослідники називають пропуск мисленнєвих кроків: моделі дедалі частіше урізали або пропускали ланцюги міркувань, що пояснювало зростання помилок.

Автори спостерігали часткову, але неповну «реабілітацію»: масштабоване інструкційне донавчання та попереднє навчання на «чистих» даних покращували когнітивні властивості, але не повертали базових здатностей.

«Найголовніший висновок полягає в тому, що мовні моделі відзеркалюють якість своїх даних більш глибоко, ніж ми думали. Коли моделі стикаються з небажаним текстом, вони не просто звучать гірше, вони починають гірше мислити», — розповіли співавтори дослідження Цзюнь Юань Хонг та Атлас Ван у коментарі Forbes.

Автори дослідження зазначають, що ці результати показують потребу у переосмисленні сучасних підходів до збору даних з інтернету та практик безперервного донавчання.

«Через обмеження обсягу дослідження ми залишаємо відкритим питання, яким саме чином популярні твіти або інші типи „сміттєвих“ даних змінюють механізм навчання, призводячи до когнітивного занепаду. Відповідь на це питання є ключовою для розробки ефективних методів захисту LLM у майбутньому», — зазначають автори.

Читайте також:
Політика
Там назвали рекомендації ШІ ненадійними та явно упередженими.
21 жовтня, 20:10
Політика
Google надає студентам віком від 18 років річну підписку на набір інструментів Google AI Pro.
08 жовтня, 12:44
Світ
Уже за кілька десятиліть ШІ зможе конкурувати з найвидатнішими науковими розумами людства.
08 жовтня, 11:25
Світ
Сем Альтман заявив, що ChatGPT вже розумніший за нього самого — і за більшість людей.
29 вересня, 07:10
Життя
Чи готові ми до світу, де штучний інтелект стає «коханим»?
18 вересня, 17:58