Вивчення дезінформації та боротьба з нею мають бути головним науковим пріоритетом
Вивчення того, як інформаційна екосистема впливає на колективну поведінку людей, має стати «кризовою дисципліною»
Нещодавно в журналі Science була опублікована стаття «Detecting Bullshit», в якій порушено тему дезінформації та описано труднощі, з якими стикаються вчені при спробі вивчити це явище та знайти вирішення такої «глобальної проблеми».
Тут наведено основні аспекти статті.
Біолог-еволюціоніст з Вашингтонського університету (UW) у Сіетлі Карл Бергстром вивчав еволюцію комунікації у тварин, епідемії грипу та найкращі способи ранжирування наукових журналів. Але за останні 5 років його все більше і більше цікавить, як «нісенітниця» поширюється по нашій інформаційній екосистемі.
"Bullshit" - Збірний термін Карла Бергстрома для позначення брехні, що поширюється в Інтернеті - як дезінформації, яка поширюється ненавмисно, так і дезінформації, призначеної для навмисного поширення брехні.
За його словами, пандемія показала, наскільки переконливою та потужною є дезінформація.
«Дезінформація досягла масштабів кризи. Це становить ризик для міжнародної спільноти, заважає демократичному процесу прийняття рішень, ставить під загрозу благополуччя планети та загрожує громадському здоров'ю», — написали Бергстрем та його колега з UW Джевін Уест у статті 2021 року в PNAS (Proceedings of the National Academy of Sciences).
Бергстром та інші вчені також закликали дослідників вивчити дезінформацію та навчитися її зупиняти. І, незважаючи на те, що ця тема об'єднала навколо себе вчених із різних дисциплін (включаючи біологію, фізику, соціологію та психологію), дослідники поки що залишаються розрізненими. Також існують розбіжності щодо того, як найкраще вивчати це явище, і наскільки значні його наслідки. Тому вчені поки що лише на шляху до спільного діалогу.
У статті, опублікованій у PNAS минулого року, Бергстром та 16 інших учених з різних областей стверджували, що вивчення того, як інформаційна екосистема впливає на колективну поведінку людей, має стати «кризовою дисципліною», подібно до науки про клімат, яка також могла б запропонувати способи вирішити проблему.
"Будівля вже горить, і ми не знаємо, як загасити вогонь", - резюмував один із автором статті Бак-Коулман, який працює в Центрі поінформованої громадськості UW.
У 2018 році дослідники з Массачусетського технологічного інституту опублікували дослідження в Science, що показує, що хибні новини поширюються набагато швидше і ширше, ніж правда. Причина в тому, що людям подобається новизна, а хибні історії, швидше за все, будуть новішими, припустили автори.
Спілкування в епоху Інтернету
Інтернет-мережі підривають традиційні емпіричні правила спілкування, кажуть вчені. До появи Інтернету, наприклад, отримання однієї й тієї інформації від кількох людей робило її достовірнішою, але ці правила змінилися.
«У фізичному світі було б майже неможливо зустріти когось ще, хто думає, що світ плоский, – стверджує Стефан Левандовскі, психолог із Брістольського університету. — Але в Інтернеті я можу зв'язатися з іншими 0,000001% людей, які дотримуються цього переконання, і я маю скласти (хибне) враження, що воно широко поширене».
Він порівнює це з нашою тягою до цукру, яка була корисна в середовищі, де насолода була рідкістю і сигналізувала про поживну їжу, але може викликати в нас нудоту у світі, де цукор скрізь. Facebook використовує людську спрагу контактів, на його думку, як Coca-Cola для розуму, дозволяючи людям спілкуватися з набагато більшою кількістю. Сьогодні за один день у людини може бути значно більше контактів, аніж могло бути за все життя у мешканців минулої доби.
І в той час, як Coca-Cola не може щотижня коригувати свою формулу, платформи соціальних мереж можуть постійно змінювати свої алгоритми та тестувати нові стратегії, щоб підтримувати нашу залученість.
Одна з ключових проблем полягає в тому, що спосіб поширення інформації в соціальних мережах визначається пропрієтарними алгоритмами платформ, які вчені не можуть вивчити, оскільки не мають доступу до цих даних.
У компаній, що працюють у соціальних мережах, мало стимулів до будь-яких змін, тому що вони заробляють гроші на продаж реклами.
Рішення вчені бачать лише у випадку, якщо влада держав змусить технологічні компанії надавати доступ до даних. Дослідники намагалися зрозуміти потік хибної та дезінформації іншими способами, але результати часто не були однозначними.
Минулого року у звіті Центру боротьби з цифровою ненавистю стверджувалося, що всього 12 осіб, які були названі «дюжиною дезінформації», були джерелом 73% дезінформації про COVID-19 у Facebook. Автори припустили, що заборона цих «суперрозповсюджувачів» може значно зменшити кількість дезінформації. Але Meta, материнська компанія Facebook, виступила проти того, що вона назвала «помилковою розповіддю». Звіт був заснований лише на 483 фрагментах контенту тільки з 30 груп і жодним чином не відображав сотні мільйонів повідомлень, якими люди поділилися у Facebook за останні місяці.
Вектор рішення
Деякі дослідники кажуть, що для досягнення прогресу область, що зароджується, повинна менше зосереджуватися на властивостях мережі і більше на людському факторі.
Як і вірусу, для поширення дезінформації потрібні люди, говорить соціолог Колумбійського університету Зейнеп Туфекчі.
«Варто вивчити людей з іншого боку». Вивчити причини, через які люди натискають «Мені подобається» чи «Поділитися», і чи змінює дезінформація їхню поведінку та переконання».
Бергстрем дивиться на соціальні мережі, як і багато інших речей у житті, через призму еволюції.
Будучи студентом-біологом Стенфордського університету, Бергстром захопився спілкуванням - еволюційною загадкою через можливість обману. Саме цьому він присвятив свою дисертацію. Карл Бергстром зачарований спілкуванням - еволюційною загадкою через можливість обману.