Дезинформацията, като инструмент за влияние

Помните ли как световните медии гръмнаха, че хърватският национален отбор дарил всичките си 23 милиона долара, спечелени от световното първенство по футбол за благотворителност? Няколко дни след това се разбра, че информацията е фалшива. Публикувал я онлайн хърватски журналист, който най-отдолу ясно е описал, че това е мечтано, а не реално събитие, една провокация в духа на „Не Новините“. Просто никой не си направил труда да чете до края. Само за един час хиляди потребители във Фейсбук споделили новината и от там до големите медии. Примерът е характерен, за това как днес всеки човек може да се превърне в източник на информация благодарение на социалните мрежи.
Веднъж попаднала в интернет, подобна новина си остава там. И днес, ако потърсите с ключови думи споменатото футболно дарение, ще ви излязат безброй съобщения за това. Интернет е пълен с подобни неверни, забравени публикации и е възможно след години във Фейсбук да ви се появи същата новина, споделена от умилен приятел.
Всичко това е невинна провокация, но какво става в случаите, когато лъжата е целенасочена, манипулативна, преследваща користна цел?
Фактът, че една новина е споделена от много хора онлайн, по-скоро е знак, че трябва да бъдем внимателни, а не е доказателство за нейното качеството. Фалшивите новини са много по-завладяващи, те влияят на емоциите и това кара повече потребители да ги разпространяват. Споделяйки ги, хората много по-често изразяват страх, отвращение или изненада, докато при истинските новини емоциите в думите им са за очакване, тъга, радост или вяра.
Тук идва друга особеност на проблема. Самите социални мрежи едва неотдавна, при това без видимо желание, се включиха в битката с фалшификатите, защото те им носят изгода. Бумът на споделянето значи допълнителен трафик на сайтовете, повече реклами, повече приходи. Няма логика да вменяваме морални предразсъдъци на големите корпорации.
Нека все пак приемем, че е дошъл моментът да се противодейства на фалшивите новини. Но кой и как би могъл да анализира информацията, без това да носи риска от цензура и допълнително влияние? През последните месеци, след активизирането на „Фейсбук“ срещу фейк новините, все повече личности с ярки позиции са обект на постоянно докладване и блокиране без каквото и да било основание.
Първият голям въпрос е кой ще определя кое от казаното е истина, а вторият… какво точно е истината? Кандидатите за отговор на първия могат да бъдат сведени до четири – журналистите, аудиторията, властите и компютърните алгоритми. Всеки от тях има потенциал, но крие и допълнителни рискове. Липсата на цензура в един децентрализиран информационен свят е най-голяма възможност, която дава интернет, а съответно: и най-голямата отговорност. И разбира се, винаги, когато се говори за информационен контрол от страна на държавите или политиците, обществата започват да стават особено чувствителни.
Неотдавна американският президент обвини „Гугъл“, че извежда на преден план в търсенията си резултатите, от либералните медии, които го хулят и ненавиждат. Представител на компанията остро отвърна, че това е клевета, те никога не влияят на резултатите, защото алгоритмите им са прозрачни и вземат предвид повече от 200 фактора. На пръв поглед е логично никой да не знае точно какви са тези фактори. Защото от другата страна стои армията от милиони разработчици на сайтове по света, които се опитват да предугадят какво е това, което ще издигне страниците им нагоре в търсачката. И все пак: кой точно би могъл да спре една търсачка например да ограничи лошите новини, свързани със самата нея, или пък позитивните вести за някого, който има по-добри резултати и посяга към глобалния й монопол?
След това с пълна сила идва темата за личното отношение, с което ни даряват най-големите сайтове, от които сме свикнали да черпим информация.
Всеки ден влизаме в Гугъл, подтикнати от желанието да намерим новини по дадена тема, да попълним информационен пропуск или пък просто да видим кой печели баса за столицата на Либерия. Може би сте забелязали, че след като сте правили няколко търсения в дадена посока, предложенията, които търсачката започва да ви дава, се променят. Ако не вярвате, започнете да пишете произволна дума на своя компютър, после се преместете на пулта на колегата си и опитайте отново. Разликите ще ви изненадат. Всички ние имаме досиета в Google.

Това, че търсачката прави възможното, за да ни даде най-подходящия резултат, е прекрасно-улеснява ни, пести време, насочва ни към търсеното. Но от друга страна, ни ограничава, намалявайки случайността. Ако търсим постоянно в една конкретна област, това сериозно ще намали резултатите, които ще получим, от много други страни на познанието, феноменът не само има пряко отношение към фалшивите новини, но и поставя още интересни въпроси, свързани с недалечното дигитално бъдеще.
Всеки от нас има своя „социален балон“ или „балон на филтрите“ (filter buble), както сполучливо го е нарекъл Eli Pariser – човекът, който още през 2011 г. предупреждава, че ще стигнем дотук. Накратко: негативната страна на персонализираното търсене е, че човек уж има безкрайно море от информация, но получава само това, което иска. Системата знае къде се намирате, от какво се интересувате, какво ви харесва, на кой политик симпатизирате!
В социалните мрежи правилата са същите: алгоритмите им се грижат да ви доставят съдържанието, което ви носи удоволствие или което харесвате и разпространявате. А и самите ние като потребители трябва да си признаем, че не горим от желание да опознаваме гледната точка, която не ни харесва, напротив: психологията ни влече да се заобикаляме със съмишленици, да споделяме идеи и гледни точки. 
Понякога обаче това може да изкриви гледната точка. Ако останем в рамките на така популярния пример с изборите, то персонализираната информация помага за това измежду двамата ни приятели-единия хулещ, а другия славещ нашия любим кандидат, да ни излизат само новините, свързани с втория.
Парайзър дава друг пример: с търсенето в Гугъл на British Petroleum. Един от потребителите ще получи само сайтове, даващи информация за инвестиционните новости, свързани с компанията, а друг – такива за екологичните щети, нанесени от взрива на нефтената платформа Deepwater Horizon.
Интернет активистът формулира чудесно и опасностите от тази филтрация: тя скрива от нас нови идеи и важна информация. Създава впечатлението, че нашите собствени интереси и възгледи са единствени и не съществува нищо друго.
Неотдавна в едно изследване на участниците била предоставена информация за кандидат за предстоящи избори. Половината получили положителни данни за него, на другите съобщили, че е откраднал пари от собствената си компания, после се извинили и пояснили, че е станала грешка. Накрая попитали двете групи корумпиран ли е кандидатът и единодушният отговор гласял: „Не!“. Но когато след това им задали въпроса биха ли гласували за него, оказало се, че групата, получила фалшивата информация, е драстично по-неблагосклонна.
Ако искате да информирате правилно хората, не бива да мислите само за това какви факти ще им съобщите, а и от какви модели се водят те, дали е достатъчно обоснована базата. Например, колкото повече се говори, че Саддам Хюсеин не е имал нищо общо с атентатите от 11 септември, толкова повече хора вярват, че той е бил свързан с тях. От гледна точка на познанието сигналът „не“ е по-слаб от „двете неща нямат никаква връзка“.
Има много доказателства, че хората, усещащи, че тяхната идентичност е под някаква заплаха, по-твърдо поддържат убежденията си и са по-малко склонни да приемат мнение, различно от своето. Мисля, че в политическите дискусии прекалено често идентичността се приравнява към партийната принадлежност.
Има ли вариант да се създаде друга идентичност, която да помогне темите да се обсъждат с повече разбиране? Любопитно е, че най-съдържателните политически онлайн спорове съм виждал в спортните форуми, защото там на първо място хората се срещат като фенове на даден отбор, а едва след това са демократи или републиканци.
На пръв поглед е чудесно да отбележите, че се интересувате от спорт, почитател сте на даден отбор, вълнува ви политика и застъпвате определено направление. И после любимият новинарски сайт ще ви залива само с новини, които ви интересуват. Няма да ви занимава с отбори, които нямат предстоящи мачове с вашите любимци, нито с възгледи за политиката, които ще ви настроят агресивно.
Петте проблема, които произтичат от това, обобщава журналистът и изследовател Титус Платнер.
На първо място: „балонът на филтрите“, се нарича също „информирана слепота“. Опитвайки се да ви удовлетвори, социалната мрежа или новинарският сайт ще ви създаде изкуствена атмосфера.
Второ, този феномен ви затваря в тясна кутия. Мрежата или сайтът ще ви създаде илюзията, че едва ли не всички и всичко подкрепят любимата ви партия, че всички останали мнения са застъпвани от маргинализирано малцинство… а дотук приключва критичното мислене. Голям риск е, че това е изкушение не само за средата – например Фейсбук, но и за всяка комерсиална медия, която би се чувствала много уютно да съобразява новините си с всеки потребител и така да е харесвана и четена от всички.
На трето място излиза въпросът „Могат ли алгоритмите да определят интересите на обществото? Или само търсят най-интересното? В един момент границата неминуемо се размива: докато медиите и журналистите са подготвени професионално да избират съществените теми, които да представят (с всички забележки, които предизвикват заради това), алгоритмите лесно могат да подменят дневния ред. Пред хората лесно ще се показват благи интервюта на любимите им политици, вместо да се поставят важни теми като корупцията, социалното неравенство, престъпността: както като цяло, така и в отделни случаи.
Четвърто, днес за водещ принцип се приема плурализмът – редно е да се дава думата на хора с различни гледни точки, така че зрителят да решава последен в чия полза са аргументите. Филтрирането на новините по предпочитания е тъкмо противоположно на това начало. А дали, ако сте чули какво мисли по дадена тема политик от партията, чийто горещ почитател е съседът ви, ще ви е по-лесно да намерите общ език с него? След като не се представя и разглежда различната гледна точка… а съответно и хората с различна гледна точка не достигат до вашите новини, кой точно би могъл да бъде коректив на информацията? Кой може да каже например, че идеите на определена група са се превърнали в агресивни и дори опасни за много други хора?
Не на последно място, филтрирането на новините води дотам, че вие губите своята сигурност. Този, който ви предоставя новините: медия или мрежа, знае за вас не само кой е любимият ви политик, но и какво би ви накарало да го харесвате повече, къде сте били вчера… оттук до обрисуваното от Джордж Оруел остава една плашещо малка крачка.
 Наскоро BBC обяви, че учени от Кеймбридж работят върху „ваксина“ срещу фалшивите новини. Според тях „превантивното предлагане на малки порции невярна информация на читателите може да помогне. Идеята ни е да набавим когнитивен репертоар, който да помага на човек да изгради резистентност към нея, така че, когато се сблъска с подобен тип твърдения, да е по-малко податлив“, казва д-р Сандър ван дер Линден.
В това има зрънце истина: ако знаеш какви са честите методи на фалшивите новини, е по-голям шансът да ги избегнеш. Всичко това е въпрос на информационна култура, но и на будна мисъл. В крайна сметка връщаме се там, откъдето започнахме – в наши дни е по-лесно от всякога човек да стигне до информация, а също и да я провери. И в ръцете на всеки от нас е да използва това огромно благо: безценното море от знание, както намери за добре.
В днешния свят модерните информационни технологии ни позволиха да разполагаме с огромни масиви от информация, но също така на тях дължим и проблема с фалшивите новини. В такъв случай дали решението няма да се появи именно с помощта на компютрите?  Изкуственият интелект не само е способен да улавя с много голям успех фалшивите новини, но и да създава сам материали. Едно от най-нашумелите през последните години направления са невроните мрежи – софтуер, обучен да обработва информацията по подобие на методите, с които това прави собственият ни мозък. Казано опростено, както невроните и синусите им получават и обработват информацията, така и невроните мрежи трупат своя изкуствен интелект, след като могат да се самообучават, да анализират данните с впечатляваща точност и многопластовост.
Социалните мрежи позволяват микротаргетиране например, ако е жител на малък американски град в определен щат, в определена възрастова група, непрекъснато ще му се появяват новини, свързани с ограничаването на достъпа до оръжие, защото към това е чувствителен, а той и не подозира. Така или иначе, фалшивите новини вече дават сериозни отражения в реалния свят.
Много са случаите, в който хакери атакуват например националната информационна агенция и слагат фалшива новина, от която започва огромен дипломатически конфликт.
„Според науката техниките на пропаганда са повече от шестдесет. Когато се стигне до неудобен въпрос, се бяга в далечна тема или пък се повтарят цитати от миналото… Те са познати много отдавна и въпреки това не спират да работят. Д-р Гьобелс казва: „Пропагандата става неефективна тогава, когато хората знаят за нея“. Именно това е целта и сърцето на нашия проект“, разказва изследователят.
В момента онлайн има стотици мащабни организации, които се борят с фалшивите новини, проверявайки информацията. Най-популярният сайт oт тях  е Factcheck.org, където са проверени около 10 000 твърдения.
И все пак: от една страна, броят е нищожен на фона на ежедневния новинарски поток, от друга: понякога проверката на даден факт може да отнеме много, много време, което ще му е достатъчно да обиколи планетата. Ако човек се довери напълно на дадена организация, която да проверява фактите, това пък крие рисковете от нови манипулации.
Ето тук на помощ идва това, от което очакваме най-силно да промени живота ни в следващите години: изкуственият интелект и дълбоките невронни мрежи.
За тази цел се използват софтуери на принципа на невронните мрежи и лингвистичното програмиране. Първата задача на невронната мрежа обикновено е да отсее какво точно трябва да бъде проверено. Задачата съвсем не е рутинна. Първоначално се изгражда база данни с примери от реални сайтове, отсята от хора. Решенията на екипа се вкарват в невронната мрежа след подробен анализ. Тя е научена да забелязва не само съдържанието на изречението, но и дължината му, емоцията, която съдържат думите му. Отчита се какво е глобалното време, дали става дума за реакция на твърдение на опонента, съдържа ли собствено име, носи ли позиция. Извън структурата на диалога невронната мрежа е обучена и да търси вътрешни противоречия в думите на единия участник в разговора, имали прилика с вече проверени твърдения, каква е реакцията на публиката в залата. Всичко това са фактори, които подсъзнателно анализираме и ние, слушайки който и да било събеседник, макар и да не е възможно да ги анализираме в такава пълнота.
След като целият този пъстър спектър от информация е вече в невронната мрежа, изследователите проверяват как се справя тя със следващите текстове. И се оказва, че успехът е налице – в огромна част от случаите софтуерът избира като ключови едни и същи твърдения с много от водещите сайтове, където същата работа е свършена от хора. Основното предимство на невронната мрежа е, че тя се самообучава на базата на успехите си в обработката на даден текст и допуснатите грешки тя бива подобрявана така, че да не ги повтаря при следващия текст. Същевременно тя анализира й работата на 9-те сайта за проверка на факти – какво отличава всеки от тях в подхода му към избора на изречения, което пък дава допълнителна информация – например за пристрастията на журналистите, правили анализа.
ГОЛЯМА ЧАСТ ОТ СТАТИИТЕ, КОИТО ЧЕТЕМ ДНЕС, СА АВТОМАТИЧНО ГЕНЕРИРАНИ ОТ КОМПЮТЪРЕН СОФТУЕР С ИЗКУСТВЕН ИНТЕЛЕКТ!
Генерирането на изображения, видео и звук, при които действителността не може да бъде различена от манипулацията, отдавна не е проблем за съвременните компютърни системи, там каузата скорост ще бъде безвъзвратно изгубена. Можете да видите онлайн клипове, в които по съвършен начин е симулирано, че даден политик казва неща, за които не би си и помислил. Днес дори има ботове, които генерират текстове по дадена тема без човешка намеса. Това важи още повече за новините показващи времето, спорта, като те се пишат от гледна точка на победителя. Голяма част и от специализираните статии се пишат изцяло от компютри, смята се, че до 2025 г. покритието може да достигне 90%“. 
Информацията винаги има много страни и колкото по-ценна е тя, толкова по-голям обект е на манипулации.
„Бъдете скептични!” Независимо колко „автентична” изглеждат дадена новина, снимка или видеоклип, независимо колко импонират на политическите, естетическите или моралните ви разбирания, не се доверявайте изцяло на написаното или видяното.
Бъдете внимателни към публикации, които изцяло съвпадат с вашите представи за живота – често са твърде „перфектни”, за да бъдат истина. Приложете поне някои от описаните по-долу техники, за да се убедите, че някой не се опитва да ви направи за смях.
  • [1] Pariser, Eli Fun facts from the new Facebook filter bubble study. Medium. Retrieved, 2017.
  • [2] Пак там;
  • [3] https://medium.com/@titusplattner
  • [4]  Sander van der Linden, Risk and Uncertainty in a Post-Truth Society (Earthscan Risk in Society), 2019. ISBN 978-0367235437
______________________________

Няма коментари:

Публикуване на коментар