Ви на війні за реальність. Але все буде добре. Якщо ви боротиметеся.
Війна за наші емоції та вибір вирує в Україні і світі, довкола і всередині нас. Кількість ліній фронту незліченна. Люди воюють у сім'ях, онлайн-спільнотах і суспільствах. Держави воюють із людьми, компаніями та між собою. Як не розірватися між спільнотами й не втратити відчуття реальності, коли фейки змішалися з правдами, а комунікативна війна стала запеклішою від фізичної?

Український дипломат і комунікатор Дмитро Кулеба у своїй новій книжці "Війна за реальність: як перемагати у світі фейків, правд і спільнот" переконує: інформаційній агресії можна протистояти. Книга є своєрідним посібником із розвитку критичного мислення та протидії маніпуляціям, вона буде корисна усім, хто має сторінку в Facebook, любить читати Twitter або Telegram та дізнається новини з сайтів інформагентств.

ТСН.ua зібрав найцікавіші приклади маніпуляцій у інформаційному просторі із книги "Війна за реальність" та поради від Дмитра Кулеби, як не втратити відчуття реальності, коли фейки змішалися з правдами.
МИ — ЦЕ НАШІ
ПЕРСОНАЛЬНІ ДАНІ

З погляду комунікативного світу ми — це наші персональні дані. Володіння ними дає змогу будувати для нас будь-яку реальність. Нас спокушають, щоб зробити процес викачування з нас персональних даних максимально приємним і непомітним.

Ми самі віддаємо їх щоразу, коли зависаємо на зручних цікавих платформах, платимо за покупку, шукаємо інформацію, ставимо лайк чи поширюємо допис у соцмережах і позначаємо місце свого перебування. Особливо щедро ми ділимося даними про себе, коли беремо участь в онлайн-вікторинах типу "На яку зірку Голлівуда ви схожі?" чи — версія для інтелектуалів — "Дізнайся, наскільки добре ти знаєш класику світової літератури".

87 мільйонів — саме стільки користувачів фейсбуку непомітно для себе поділилися персональними даними з науковцем, який передав їх фірмі Cambridge Analytica для організації впливу на виборців в інтересах Дональда Трампа. Так сталося тому, що 270 тисяч із цих 87 мільйонів людей не встояли перед спокусою взяти участь у захопливій вікторині "Це твоє цифрове життя".

Програма отримала доступ до їхніх даних, а також до даних усіх їхніх друзів. На основі аналізу особистих уподобань та характеристик користувачів було розроблено наративи для таргетування виборців "правильними" історіями. Дональд Трамп скористався цією технологією, і це допомогло йому стати президентом США. Його кампанію було побудовано на агресії проти опонентки — Гілларі Клінтон. Ті, хто намагався вплинути на вибори в його інтересах, поширювали ще й агресивні повідомлення щодо найболісніших проблем американського суспільства.

Facebook через цю історію опинився в епіцентрі двох найгучніших в історії скандалів про витік персональних даних і втручання у вибори президента США. Акції компанії впали на 60 мільярдів доларів.

Реальність було змінено за допомогою персональних даних, здобутих через спокусу та використаних для агресії. Тому варто пам'ятати: реальність формується з того, що комунікують їй і що комунікує вона.
МИ РЕЖИСЕРИ
ВЛАСНОГО НАСТРОЮ
2011 році фахівці Facebook проаналізували статуси одного мільйона користувачів на наявність позитивних і негативних емоцій. Після цього вони проаналізували статуси 150 мільйонів друзів користувачів із першого мільйона. Виявлена закономірність вражала: друзі користувачів, які розміщували позитивні статуси, підхоплювали їхній настрій у своїх статусах, на перший погляд не пов'язаних із першоджерелом позитиву. Такий самий зв'язок працював і для негативних емоцій. Однак це була лише прелюдія.

У 2012 році у Facebook перейшли від спостереження до управління. Через свій таємний експеримент мережа наразилася на шалену критику та звинувачення в порушенні етичних стандартів. Але небезпечна гра була варта отриманого результату. Експеримент охопив 689 003 користувачів. Його суть зводилася до того, щоб протягом тижня через налаштування алгоритму грати на пониження емоцій у стрічці новин користувачів. Тож одна група протягом тижня бачила менше статусів із позитивними емоціями, а інша — менше з негативними. Паралельно система моніторила взаємозв'язок між настроєм стрічки новин користувача та його власними статусами.

Загалом було проаналізовано понад три мільйони статусів. Аналіз домінування у статусах користувача позитивних чи негативних емоцій допоміг дійти висновку: "У власних статусах людей, для яких позитивний зміст в новинах було скорочено, значний відсоток слів ставав негативним, лише малий відсоток лишався позитивним. Коли негативність обмежували, виникала протилежна модель. Ці результати свідчать, що емоції, які висловлюють наші друзі через онлайнові соціальні мережі, впливають на наш настрій".

Коротко кажучи, ви можете вважати себе раціональною людиною з розвинутим критичним мисленням і здатністю фільтрувати інформацію. А насправді ви непомітно піддаєтеся емоції, що переважає у вашій стрічці новин. Нам навіть не потрібно взаємодіяти з іншим користувачем, щоб перейняти його емоцію. Достатньо лише ознайомитися з текстом.
ПОЛЕ БИТВИ — СОЦМЕРЕЖА
ЧОМУ ПОГАНИХ НОВИН БІЛЬШЕ?
ПОЛЕ БИТВИ – FACEBOOK:
3. Неправдивий зв'язок (заголовок, зображення або підписи під ними не стосуються контенту) — "Україна готує атаку на Крим". До новини додається фото озброєних до зубів військ. Сама подія в тексті новини передається без спотворень.

4. Сфабрикований контент (новина на 100% брехлива й має на меті ввести в оману або завдати шкоди) — "Радикали затримують і ґвалтують жінок, які в'їжджають на територію України з Криму".

5. Контент із посиланням на неназване джерело (інформацію цитують із посиланням на неназване джерело) — "100 протестувальників відвертають увагу від групи диверсантів, яка проникла до Криму, — джерела".

6. Оманливий контент (інформація правдива, але використовується з метою формування неправдивого фрейму) — "Протест проти торгівлі: Україна відштовхує останніх симпатиків у Криму".

7. Сатира та пародія (подія не спотворюється, але обігрується з метою нівелювання її значення) — "Повстання невдах: в Україні вимагають зупинити торгівлю з Кримом".

Як бачимо, є чотири точні ознаки фейку: емоційність, повторюваність, простота й візуальне супроводження.

Тому правило № 1: особливо обережно ставитися до будь-якої новини, що викликає сильні емоції та постійно трапляється на очі.
Дмитро Кулеба, Страсбург (Франція), 2018
Керувати своїми емоціями та фільтрувати емоціно забарвлені новини та теорії змов:

1. Контролюйте, які дописи вподобуєте та поширюєте.

2. Обмежте коло друзів у соціальних мереж та залиште лише тих, за ким вам дійсно потрібно підтримувати контакт.

3. Слідкуйте за альтернативною точкою зору навіть, якщо вона вам не близька.
ЩО РОБИТИ?
ІНТЕРНЕТ-ПЛАТФОРМИ
БЕЗПОРАДНІ
У липні 2018 року WhatsApp повідомив, що для боротьби з дезінформацією в месенджері з'явилася позначка "Переслане". Тобто, якщо вам хтось щось написав, то ви бачите просто повідомлення. А якщо переслав, то над цим повідомленням буде написано "Переслане". Це попередження мало б вас насторожити і спонукати критичніше поставитися до повідомлення. Мало б, але цієї мети не було досягнуто.

За місяць до того в одному з районів Індії у локальних групах у Facebook та WhatsApp поширювали інформацію, що місцевістю нишпорять викрадачі дітей. Звідти фейк пішов у народ. Людей накрутили до нестями. Діти — це завжди сильні емоції. Якось в одне з містечок заїхало двоє молодиків на чорному джипі. Місцеві довго не думали. Витягли їх із машини й забили до смерті як викрадачів дітей — превентивно лінчували заїжджих.

Звісно, ці бідолахи не були викрадачами. Але фейк уже зробив свою смертельну справу. Поліція затримала зо два десятки учасників побиття й почала роз'яснювати іншим людям, що не варто вірити всьому, що пишуть у соцмережах та месенджерах.

Міністерство Індії, відповідальне за сферу комунікацій і високих технологій, випустило реліз із промовистою назвою "WhatsApp попередили про зловживання їхньою платформою". Влада заявляла, що їй набридли випадки, коли поширені через WhatsApp фейки провокують людей на насильство (бо це вже було не вперше). І закликала компанію вжити заходів.

У липні Facebook, якому належить WhatsApp, почав діяти. Він розмістив у провідних газетах Індії рекламу, яка повідомляла, що платформи використовують для поширення фейків. І треба боротися з ними разом.

А потім рішуча боротьба платформ із фейками домоглася чергової перемоги: WhatsApp запровадив той самий напис "Переслане". І закликав двічі думати, перш ніж вірити у прочитане. Це історія, у якій "прекрасно" все. Вона не про погані платформи. Вона про безпорадні.
У березні 2018 року впливова іспанська газета опублікувала аналітику, присвячену референдуму про незалежність у Каталонії та парламентським виборам в Італії.

У першому випадку Russia Today і Sputnik стали основними постачальниками контенту в інтересах незалежності Каталонії в соцмережах. Упродовж кількох днів перед самим референдумом і одразу після нього обидва ресурси майже вдвічі збільшили кількість повідомлень на цю тему.

В Італії дольче віту також атакували через соцмережі. Росія чітко визначила найболіснішу рану італійського суспільства й почала методично сипати на неї сіль. У Твіттері 53% користувачів підтримували міграцію, а 32% виступали проти неї. Але перші згенерували лише 27% твітів, а другі натвітили 68%. Меншість банально перекричала більшість.

Роблячи наголос на емоціях і жахах, Sputnik Italia посів друге місце в списку найважливіших міжнародних медіа, на які посилалися противники міграції на підтвердження своїх тез. Зі свого боку, Russia Today і Sputnik брали 90,4% контенту для Італії саме з повідомлень противників міграції. Ось такий колообіг гніву в природі.

Кожного виборця не запитаєш, наскільки на нього вплинули російські агенти в соцмережах. Але є факти: на референдумі перемогли прибічники незалежності Каталонії, а на виборах в Італії — затяті опоненти міграції.
Впливова британська газета The Guardian якось разом із експертами проаналізувала тисячі відео з розділу "Наступне", які пропонувалися глядачам, що переглядали відео, пов'язані з виборами президента США 2016 року.

Їхній висновок спантеличував: "YouTube систематично пропонує відеоролики, які сіють розбрат, поширюють сенсації чи конспірологію".

Звісно, це не злі інженери налаштували алгоритм так, щоб він маніпулював людьми та штовхав їх у безодню страху. Просто він показував людям те, що їм подобається.

Він не винен у тому, що визначив уже відоме науковцям: люди охоче дивляться ролики про агресію, змови, секс у будь-якій формі, а також різний треш. Дофамін спонукає нас перейти до наступного рекомендованого відео, потім до наступного, і ще далі. Так ми непомітно накручуємо себе емоційно та підтверджуємо свої негативні переконання.

Агресору достатньо витратити трохи грошей на виробництво різноштибного відео правильного апокаліптичного змісту й залити його на платформу.

Решту справи зробить неупереджений алгоритм, який поза всякими рамками моралі дає людям те, що їм подобається. Пам'ятаймо про це, особливо коли наближається момент вибору.
Проведімо невеличкий тренінг із розпізнавання фейків та маніпуляцій. Уявімо подію, що справді відбулася.

100 беззбройних осіб уперше перекрили дорогу між материковою Україною та Кримом. Вони вимагають припинити торгівлю з окупованою Росією територією.

Ось таким був би заголовок цієї новини в російських пропагандистських медіа відповідно до типології неправдивої інформації, яку розробили в межах проекту Гарвардського університету First Draft165:

1. Спотворений контент (правдиву інформацію та/або зображення спотворюють, щоб ввести в оману) — "Радикали намагаються запровадити блокаду Криму".

2. Неправдивий контекст (правдивий контент спотворюється через брехливий контекст) — "Чергова провокація українських спецслужб: дорогу до Криму перекрито".
Не перекладайте відповідальність за себе на інших у питанні захисту від фальшивих новин:

1. Критично ставтеся до будь-якої інформації.

2. Перевіряйте її за допомогою декількох альтеративних джерел.

3. Звертайте увагу на першоджерело інформації.
ЩО РОБИТИ?
1. Не поспішати підтримувати чи поширювати неперевірену інформацію.

2. Не дозволяти словам та зображенням розпалювати у вас ненависть.

3. Не сприймайте новини через призму "зрад" та "перемог".
Більше про те, як захищатися та перемагати у вирі інформаційної війни, читайте у книзі Дмитра Кулеби. "Війна за реальність: як перемагати у світі фейків, правд і спільнот" вже наявна на полицях книжкових магазинів та онлайн.
ЩО РОБИТИ?
ЩО РОБИТИ?
ЩО РОБИТИ?
1. Фільтрувати емоційно забарвлені новини та теорії.

2. Свідомо ставитися до вибору контенту, не споживати нав'язану платформами інформацію.

3. Шукати позитивну інформацію.
Усвідомлювати, що наші персональні дані можуть стати зброєю у чужих руках під час війни за реальність:

1. Не давайте дозвіл різноманітним додаткам, які надсилають запит на використання контактів, особистої інформації, доступ до соціальних мереж та месенджерів.

2. Ігноруйте усі вікторини на кшталт "Якою зіркою Голлівуда ви були б?" чи "Перевір свої знання історії". Тому що розробник вікторини може використати ваші відповіді для формування психологічного портрета й відповідного впливу.

3. Обмежуйте надання особистих даних соціальним мережам або іншим інтернет-платформам.
ЯК НЕ СТАТИ ЖЕРТВОЮ ФЕЙКІВ У СОЦМЕРЕЖАХ
ПОЛЕ БИТВИ — FACEBOOK: ЯК НЕ СТАТИ ЖЕРТВОЮ ФЕЙКІВ У СОЦМЕРЕЖАХ
Ви на війні за реальність. Але все буде добре. Якщо ви боротиметеся
Дмитро Кулеба, Страсбург (Франція), 2018
Війна за наші емоції та вибір вирує в Україні і світі, довкола і всередині нас. Кількість ліній фронту незліченна. Люди воюють у сім'ях, онлайн-спільнотах і суспільствах. Держави воюють із людьми, компаніями та між собою. Як не розірватися між спільнотами й не втратити відчуття реальності, коли фейки змішалися з правдами, а комунікативна війна стала запеклішою від фізичної?

Український дипломат і комунікатор Дмитро Кулеба у своїй новій книжці "Війна за реальність: як перемагати у світі фейків, правд і спільнот" переконує: інформаційній агресії можна протистояти. Книга є своєрідним посібником із розвитку критичного мислення та протидії маніпуляціям, вона буде корисна усім, хто має сторінку в Facebook, любить читати Twitter або Telegram та дізнається новини з сайтів інформагентств.

ТСН.ua зібрав найцікавіші приклади маніпуляцій у інформаційному просторі із книги "Війна за реальність" та поради від Дмитра Кулеби, як не втратити відчуття реальності, коли фейки змішалися з правдами.
ПРИДБАТИ
МИ — ЦЕ НАШІ ПЕРСОНАЛЬНІ ДАНІ
З погляду комунікативного світу ми — це наші персональні дані. Володіння ними дає змогу будувати для нас будь-яку реальність. Нас спокушають, щоб зробити процес викачування з нас персональних даних максимально приємним і непомітним.

Ми самі віддаємо їх щоразу, коли зависаємо на зручних цікавих платформах, платимо за покупку, шукаємо інформацію, ставимо лайк чи поширюємо допис у соцмережах і позначаємо місце свого перебування.

Особливо щедро ми ділимося даними про себе, коли беремо участь в онлайн-вікторинах типу "На яку зірку Голлівуда ви схожі?" чи — версія для інтелектуалів — "Дізнайся, наскільки добре ти знаєш класику світової літератури".

87 мільйонів — саме стільки користувачів фейсбуку непомітно для себе поділилися персональними даними з науковцем, який передав їх фірмі Cambridge Analytica для організації впливу на виборців в інтересах Дональда Трампа. Так сталося тому, що 270 тисяч із цих 87 мільйонів людей не встояли перед спокусою взяти участь у захопливій вікторині «Це твоє цифрове життя».
Програма отримала доступ до їхніх даних, а також до даних усіх їхніх друзів. На основі аналізу особистих уподобань та характеристик користувачів було розроблено наративи для таргетування виборців "правильними" історіями.

Дональд Трамп скористався цією технологією, і це допомогло йому стати президентом США. Його кампанію було побудовано на агресії проти опонентки — Гілларі Клінтон. Ті, хто намагався вплинути на вибори в його інтересах, поширювали ще й агресивні повідомлення щодо найболісніших проблем американського суспільства.

Facebook через цю історію опинився в епіцентрі двох найгучніших в історії скандалів про витік персональних даних і втручання у вибори президента США. Акції компанії впали на 60 мільярдів доларів.

Реальність було змінено за допомогою персональних даних, здобутих через спокусу та використаних для агресії. Тому варто постійно пам'ятати: реальність людини формується з того, що комунікують їй і що комунікує вона.
ЩО РОБИТИ?

Усвідомлювати, що наші персональні дані можуть стати зброєю у чужих руках під час війни за реальність:
1
Не давайте дозвіл різноманітним додаткам, які надсилають запит на використання контактів, особистої інформації, доступ до соціальних мереж та месенджерів.
2
Ігноруйте усі вікторини на кшталт "Якою зіркою Голлівуда ви були б?" чи "Перевір свої знання історії". Тому що розробник вікторини може використати ваші відповіді для формування психологічного портрету й відповідного впливу.
3
Обмежуйте надання особистих даних соціальним мережам або іншим інтернет-платформам.
МИ РЕЖИСЕРИ ВЛАСНОГО НАСТРОЮ
2011 року фахівці Facebook проаналізували статуси одного мільйона користувачів на наявність позитивних і негативних емоцій. Після цього вони проаналізували статуси 150 мільйонів друзів користувачів із першого мільйона.

Виявлена закономірність вражала: друзі користувачів, які розміщували позитивні статуси, підхоплювали їхній настрій у своїх статусах, на перший погляд не пов'язаних із першоджерелом позитиву. Такий самий зв'язок працював і для негативних емоцій. Однак це була лише прелюдія.

2012 року у Facebook перейшли від спостереження до управління. Через свій таємний експеримент мережа наразилася на шалену критику та звинувачення в порушенні етичних стандартів. Але небезпечна гра була варта отриманого результату.

Експеримент охопив 689 003 користувачів. Його суть зводилася до того, щоб упродовж тижня через налаштування алгоритму грати на пониження емоцій у стрічці новин користувачів. Тож одна група протягом тижня бачила менше статусів із позитивними емоціями, а інша — менше з негативними. Паралельно система моніторила взаємозв'язок між настроєм стрічки новин користувача та його власними статусами.
Загалом було проаналізовано понад три мільйони статусів. Аналіз домінування у статусах користувача позитивних чи негативних емоцій допоміг дійти висновку: "У власних статусах людей, для яких позитивний зміст у новинах було скорочено, значний відсоток слів ставав негативним, лише малий відсоток лишався позитивним.

Коли негативність обмежували, виникала протилежна модель. Ці результати свідчать, що емоції, які висловлюють наші друзі через онлайнові соціальні мережі, впливають на наш настрій".

Коротко кажучи, ви можете вважати себе раціональною людиною з розвинутим критичним мисленням і здатністю фільтрувати інформацію. А насправді ви непомітно піддаєтеся емоції, що переважає у вашій стрічці новин.

Нам навіть не потрібно взаємодіяти з іншим користувачем, щоб перейняти його емоцію. Достатньо лише ознайомитися з текстом, який розмістив цей користувач.
ЩО РОБИТИ?

Керувати своїми емоціями та фільтрувати емоційно забарвлені новини та теорії змов:
1
Контролюйте, які дописи вподобуєте та поширюєте.
2
Обмежте коло друзів у соціальних мереж та залишайте лише тих, з ким вам дійсно потрібно підтримувати контакт.
3
Стежте за альтернативною точкою зору навіть, якщо вона вам не близька.
ІНТЕРНЕТ-ПЛАТФОРМИ БЕЗПОРАДНІ
У липні 2018 року WhatsApp повідомив, що для боротьби з дезінформацією в месенджері з'явилася позначка "Переслане". Тобто, якщо вам хтось щось написав, то ви бачите просто повідомлення. А якщо переслав, то над цим повідомленням буде написано "Переслане". Це попередження мало б вас насторожити і спонукати критичніше поставитися до повідомлення. Мало б, але цієї мети не було досягнуто.

За місяць до того в одному з районів Індії у локальних групах у Facebook та WhatsApp поширювали інформацію, що місцевістю нишпорять викрадачі дітей. Звідти фейк пішов у народ. Людей накрутили до нестями. Діти — це завжди сильні емоції.

Якось в одне з містечок заїхало двоє молодиків на чорному джипі. Місцеві довго не думали. Витягли їх із машини й забили до смерті як викрадачів дітей — превентивно лінчували заїжджих.

Звісно, ці бідолахи не були викрадачами. Але фейк уже зробив свою смертельну справу. Поліція затримала зо два десятки учасників побиття й почала роз'яснювати іншим людям, що не варто вірити всьому, що пишуть у соцмережах та месенджерах.
Міністерство Індії, відповідальне за сферу комунікацій і високих технологій, випустило реліз із промовистою назвою "WhatsApp попередили про зловживання їхньою платформою". Влада заявляла, що їй набридли випадки, коли поширені через WhatsApp фейки провокують людей на насильство (бо це вже було не вперше). І закликала компанію вжити заходів.

У липні Facebook, якому належить WhatsApp, почав діяти. Він розмістив у провідних газетах Індії рекламу, яка повідомляла, що платформи використовують для поширення фейків. І треба боротися з ними разом.

А потім рішуча боротьба платформ із фейками домоглася чергової перемоги: WhatsApp запровадив той самий напис "Переслане". І закликав двічі думати, перш ніж вірити у прочитане. Це історія, у якій "прекрасно" все. Вона не про погані платформи. Вона про безпорадні платформи.
ЩО РОБИТИ?

Не перекладайте відповідальність за себе на інших у питанні захисту від фальшивих новин:
1
Критично ставтеся до будь-якої інформації.
2
Перевіряйте її за допомогою декількох альтеративних джерел.
3
Звертайте увагу на першоджерело інформації.
ПОЛЕ БИТВИ — СОЦМЕРЕЖА
У березні 2018 року впливова іспанська газета опублікувала аналітику, присвячену референдуму про незалежність у Каталонії та парламентським виборам в Італії.

У першому випадку Russia Today і Sputnik стали основними постачальниками контенту в інтересах незалежності Каталонії в соцмережах. Упродовж кількох днів перед самим референдумом і одразу після нього обидва ресурси майже вдвічі збільшили кількість повідомлень на цю тему.

В Італії дольче віту також атакували через соцмережі. Росія чітко визначила найболіснішу рану італійського суспільства й почала методично сипати на неї сіль. У Твіттері 53% користувачів підтримували міграцію, а 32% виступали проти неї. Але перші згенерували лише 27% твітів, а другі натвітили 68%. Меншість банально перекричала більшість.
Роблячи наголос на емоціях і жахах, Sputnik Italia посів друге місце в списку найважливіших міжнародних медіа, на які посилалися противники міграції на підтвердження своїх тез. Зі свого боку, Russia Today і Sputnik брали 90,4% контенту для Італії саме з повідомлень противників міграції. Ось такий колообіг гніву в природі.

Кожного виборця не запитаєш, наскільки на нього вплинули російські агенти в соцмережах. Але є факти: на референдумі перемогли прибічники незалежності Каталонії, а на виборах в Італії — затяті опоненти міграції.
ЩО РОБИТИ?
1
Не поспішати підтримувати чи поширювати неперевірену інформацію.
2
Не дозволяти словам та зображенням розпалювати у вас ненависть.
3
Не сприймайте новини через призму «зрад» та «перемог».
ЧОМУ ПОГАНИХ НОВИН БІЛЬШЕ?
Впливова британська газета The Guardian якось разом із експертами проаналізувала тисячі відео з розділу "Наступне", які пропонувалися глядачам, що переглядали відео, пов'язані з виборами президента США 2016 року.

Їхній висновок спантеличував: "YouTube систематично пропонує відеоролики, які сіють розбрат, поширюють сенсації чи конспірологію".

Звісно, це не злі інженери налаштували алгоритм так, щоб він маніпулював людьми та штовхав їх у безодню страху. Просто він показував людям те, що їм подобається. Він не винен у тому, що визначив уже відоме науковцям: люди охоче дивляться ролики про агресію, змови, секс у будь-якій формі, а також різний треш.
Дофамін спонукає нас перейти до наступного рекомендованого відео, потім до наступного, і ще далі. Так ми непомітно накручуємо себе емоційно та підтверджуємо свої негативні переконання.

Агресору достатньо витратити трохи грошей на виробництво різноштибного відео правильного апокаліптичного змісту й залити його на платформу.

Решту справи зробить неупереджений алгоритм, який поза всякими рамками моралі дає людям те, що їм подобається. Пам'ятаймо про це, особливо коли наближається момент вибору.
ЩО РОБИТИ?
1
Фільтрувати емоційно забарвлені новини та теорії.
2
Свідомо ставитися до вибору контенту, не споживати нав'язану платформами інформацію.
3
Шукати позитивну інформацію.
Проведімо невеличкий тренінг із розпізнавання фейків та маніпуляцій. Уявімо подію, що справді відбулася: 100 беззбройних осіб уперше перекрили дорогу між материковою Україною та Кримом. Вони вимагають припинити торгівлю з окупованою Росією територією.

Ось таким був би заголовок цієї новини в російських пропагандистських медіа відповідно до типології неправдивої інформації, яку розробили в межах проекту Гарвардського університету First Draft165:

1. Спотворений контент (правдиву інформацію та/або зображення спотворюють, щоб ввести в оману) — "Радикали намагаються запровадити блокаду Криму".

2. Неправдивий контекст (правдивий контент спотворюється через брехливий контекст) — "Чергова провокація українських спецслужб: дорогу до Криму перекрито".

3. Неправдивий зв'язок (заголовок, зображення або підписи під ними не стосуються контенту) — "Україна готує атаку на Крим". До новини додається фото озброєних до зубів військ. Сама подія в тексті новини передається без спотворень.

4. Сфабрикований контент (новина на 100% брехлива й має на меті ввести в оману або завдати шкоди) — "Радикали затримують і ґвалтують жінок, які в'їжджають на територію України з Криму".

5. Контент із посиланням на неназване джерело (інформацію цитують із посиланням на неназване джерело) — "100 протестувальників відвертають увагу від групи диверсантів, яка проникла до Криму, — джерела".

6. Оманливий контент (інформація правдива, але використовується з метою формування неправдивого фрейму) — "Протест проти торгівлі: Україна відштовхує останніх симпатиків у Криму".

7. Сатира та пародія (подія не спотворюється, але обігрується з метою нівелювання її значення) — "Повстання невдах: в Україні вимагають зупинити торгівлю з Кримом".

Як бачимо, є чотири точні ознаки фейку: емоційність, повторюваність, простота й візуальне супроводження.

Тому правило № 1: особливо обережно ставитися до будь-якої новини, яка викликає сильні емоції та постійно трапляється на очі.
Більше про те, як захищатися та перемагати у вирі інформаційної війни, читайте у книжці Дмитра Кулеби.

"Війна за реальність: як перемагати у світі фейків, правд і спільнот" вже наявна на полицях книжкових магазинів та
онлайн.
Made on
Tilda