13.03.2018
Искажение правды и фейковые новости.

В конце декабря 2017-го я писал, что те фейки, которые в прошлом году нам казались сумасшедшими, в этом – покажутся цветочками. Похоже мы вступаем в эпоху, в которой действительно никому нельзя верить. И все трижды перепроверять. Новостной фон в последнее время это только подтверждает. Правды становится все меньше, а фейка и фейковых новостей – все больше.

После полуторагодового разбирательства Комитет конгресса США все-таки не нашел связи предвыборной кампании Трампа с Москвой (https://www.bfm.ru/news/379595). Но перед этим в том, что эта связь была с помощью СМИ убедили больше чем полмира. Даже некоторые мои друзья в Штатах уверены, что такая связь была. Напоминаю, что фейковые новости создаются с использованием так называемого эффекта «прайминга». Принцип такой: «Каждый раз, когда к нам приезжает Иван Иванович, у нас пропадают золотые ложки. Да, ложки мы через год находим в своих же карманах, но осадочек на Иван Иваныче, кем бы он ни был, остается».

Вот и сейчас дело со Скрипалем. Пока не комментирую.

Кстати, и это важно, The Guardian недавно опубликовал большой материал о рекомендательном алгоритме YouTube, продвигающем конспирологические ролики о «агрессивной России», «плоской Земле», масонах, рептилоидах, прочей лабуды и fake news.

«YouTube – самая недооцененная история 2016-2017 года. Его поисковая система и алгоритмы рекомендаций сами являются двигателями дезинформации», - считает известный техносоциолог Зейнеп Туфекци (Zeynep Tufekci).

В мире насчитывается 1,5 миллиарда пользователей YouTube – больше числа домохозяйств, в которых есть телевизор. То, что они смотрят, в значительной мере формируется рекомендательным алгоритмом YouTube. Алгоритм подбирает их таким образом, чтобы подольше удержать человека у экрана. Гийом Часлот (Guillaume Chaslot), 36-летний французский программист, был одним из авторов этого алгоритма.

На протяжении трех лет он работал в Google и Youtube над этим алгоритмом и сегодня говорит, что рекомендательный алгоритм не оптимизирован для показа правдивых и сбалансированных роликов. «Время просмотров было приоритетом, – вспоминает он. – Все остальное считалось отвлекающими факторами».

Уволившись из компании, Часлот создал программу, которая имитирует поведение пользователя, просматривающего YouTube, и фиксирует, какие из видео рекомендуются алгоритмом. На протяжении последних 18 месяцев он использовал свое ПО, чтобы изучить искажения, присущие сегодняшнему алгоритму YouTube. Ролики касались таких тем, как выборы в США, Франции, Британии и Германии, глобальное потепление, массовые расстрелы в США. Результаты (и методологию) Часлот опубликовал на сайте Algotransparency.org. Согласно его выводам, YouTube систематически продвигает сенсационистские и конспирологические ролики, а также видео, разделяющие аудиторию на враждующие лагеря.

Самые интересные примеры были обнаружены его программой во время президентских выборов 2016 года. Как он заметил, рекомендательный алгоритм YouTube не был нейтрален: он продвигал видео, которые, в основном, помогали Трампу и наносили вред Клинтон.

YouTube в шесть раз чаще рекомендовал видео, полезное для Трампа, чем для Клинтон. По-видимому, YouTube никогда не программировал свой алгоритм, чтобы приносить пользу одному кандидату над другим. Но это именно то, что произошло.

В YouTube , конечно, не согласились с этой методологией, данными и сделанными выводами: «Наши поисковые системы и рекомендательные системы отражают то, что ищут люди. Это не предвзятость по отношению к конкретному кандидату – это отражение интересов зрителей». Кто бы сомневался ????

Но все дело в том, что это похоже на кафетерий с автопилотом в школе, усвоившим, что детям нравится сладкая, соленая и жирная еда. Представьте, что он постоянно предлагает детям такую пищу, автоматически загружая следующую тарелку, как только ребенок съест очередной пакет чипсов или конфет. Полезно ли это?

Заботьтесь о своей информационной гигиене,
Статьи Алексея Филатова в:
Присоединяйтесь к нам в соц сетях: