Постправда: Будущее уже здесь — оно просто неравномерно распространено

Алгоритмы, дискурсы, паттернократия — всё, что вам не сказали о постправде. 

В жёсткой борьбе за статус слова года по версии Оксфордского словаря «постправда» вырвала пальму первенства у «брексита» и «чат-бота». Согласно определению, термин означает «обстоятельства формирования общественного мнения, при которых факты менее значимы, чем эмоциональное отношение и субъективность». Однако феномен постправды был известен и раньше, в 1992 году сценарист Стив Тесич первым использовал его, высказываясь относительно Ирангейта и войны в Персидском заливе: «Будучи свободными людьми, мы совершенно свободно решили, что хотим жить в постправдивом мире». Спустя почти 25 лет снова происходит столкновение с постправдой, но в гораздо более глобальном и одновременно приватном смысле.

Повседневная жизнь во многом опирается на цифровые технологии и онлайн-пространство. Социальные сети служат агрегатором новостей, покупка продуктов осуществляется при помощи онлайн-магазинов или сервисов доставки еды по подписке. У каждого в кармане есть смартфон, готовый к выполнению почти любого запроса пользователя.

Однако вместе с благами этой революционной среды приходится неизбежно столкнуться и с последствиями современности, которая нас окружает. Большие данные, искусственный интеллект и алгоритмы кажутся большинству пользователей чем-то существующим и всё же далёким от реальной жизни: все эти сложные механизмы находятся в тайных лабораториях и Кремниевой долине, так что едва ли касаются каждого пользователя по отдельности. Однако это не так. Чтобы разобраться в том, что такое постправда, как она формирует повестку дня и каким образом касается каждого, Strelka Magazine обратился к исследователям цифровой и онлайн-среды: директору образовательной программы «Новая норма» Института «Стрелка» Бенджамину Браттону, директору фонда цифровых исследований Share Foundation Владану Йолеру и доценту Университета Белграда Яну Красни.

Бенджамин Браттон. Директор образовательной программы «Новая норма» Института «Стрелка», профессор визуальных искусств Университета Калифорнии

Что такое постправда? Нужно взять какое-либо сугубо личное чувство — рессентимент — и создать из него такую историю, которую с наибольшей вероятностью услышат пользователи. Затем нужно снабдить её злодеями и героями, придать рассказу определённым образом окрашенную позицию, в которой есть «скрытая» правда, например скандалы и разоблачения. Готово! Собственно, эта самая «скрытая правда» по задумке должна открываться «именно вам». После прочтения истории — например, о сговоре банкиров, разоблачении электронной переписки Хиллари — вы становитесь героем, который знает правду и будет бороться против лжи. Собственно, постправда — это сотворение героев посредством рассказывания секретов.

Социальные сети представляют собой своеобразное публичное пространство, похожее на форумы для представлений или для того, чтобы пристыдить всё и всех на глазах у публики. Поэтому одна из важнейших составляющих постправды — субъективность: личная правда, основанная на личном опыте личной истории, и неважно, что происходит вокруг. Поэтому я думаю, что постправда также связана с конструированием публичной идентичности пользователей и основывается на  репрезентации личного субъективного опыта познания мира.

Профессор Грэм Харман предложил в своё время интересную идею, говоря, что слово «постправда» не очень подходит для описания этого феномена. В своих работах он употребляет слово «постреальность», и мне кажется, что это подходящая формулировка. Он говорит о том, что действительное «реальное» было дискредитировано и потому совершенно не подходит к процессу создания «правды», это что-то вроде отделения «реального» от «правды». Это не столько отсутствие «правды» как таковой, сколько её избыток. Возьмём дополненную реальность в качестве примера того, как постправда становится следствием избытка правды, а не её отсутствия. 

Допустим, у вас есть очки дополненной реальности, которые оценивают действительность и маркируют разные противоположности в качестве оценки окружающего мира: «это халяль, а это — харам», «чисто — грязно», «хороший парень — плохой парень», «наш — их». Такая оценка не «реальна», однако это всё же некоторый режим «правды», заявляющей, как вообще говоря можно интерпретировать окружающий мир, что хорошо и что плохо. Это можно назвать фильтром.

Почему это происходит? Отчасти я думаю, что это последствия широчайшего доступа к разнородному контенту. Понимание информационных  паттернов во многом зависит от контекста и культурной принадлежности. Однако, чтобы убедиться в правильности этого тезиса, необходимо найти эти паттерны в огромном потоке контентного шума. Собственно, поиск решения превращается в процветающий рынок для тех, кто умеет работать с данными — именно они объясняют, что на самом деле происходит в мире и кто в действительности формирует повестку дня.

Это происходит не потому, что за сконструированной «правдой» не стоит правды как таковой, но потому что механизм её производства создаёт простую, понятную и выразительную «правду», которой пользователь склонен верить. И именно это интересно. Дело даже не столько в том, что с некоторых пор мы воспринимаем мир через фильтры этой «правды», а в том, что мы выражаем себя через неё: делимся, лайкаем и делаем всё остальное, что можно назвать потреблением контента. В итоге получается, что постправда — смесь почти религиозных предрассудков с выражением субъективной позиции. Однако когда к этому добавляется обсуждение проблем расы или беженцев, постправда превращается в настоящий идиосинкратический фундаменталистский популизм.

Владан Йолер. Директор Share Foundation, директор Share Lab, профессор департамента новых медиа Академии искусств Нови-Садского университета

В последнее время принято говорить, что Facebook — самый сильный катализатор распространения постправды. Новостная лента и другие алгоритмы его цифровой фабрики распределяют пользователей по группам (filter bubbles), где каждый пользователь видит свою версию «правды». Это провоцирует информационную изоляцию. Фактически мы говорим о 1,6 миллиарда нанодискурсах — «реальностях», сконструированных алгоритмами, — они оценивают, какой набор новостей, рекламных блоков и событий подходит вашему видению мира наилучшим образом. Поэтому «правдивость» фактов не играет принципиальной роли, основной параметр формирования вашей личной повестки дня — приманка, которая не даст вам не кликнуть на рекламу. Граница информационной изоляции определена горизонтом событий: мы видим то, что хотим видеть, идеи, которые соответствуют нашему собственному мнению и обращаются к каждому пользователю на эмоциональном уровне. Это явление также можно назвать «эхо-камерой» — образное описание ситуации, в которой идеи, мнения и информация всё больше актуализируются за счёт их постоянного обращения в закрытом пространстве, в то время как конкурентные позиции оказываются вычеркнуты. Каждая из таких закрытых систем постоянно воспроизводит допустимые мнения и ценности, формируя уникальную версию «правды». Поэтому эта модель полностью соответствует определению «постправды».

Однако несправедливо винить во всём Facebook и его алгоритмы. При помощи таргетинговой системы политики и другие стейкхолдеры могут стимулировать пользовательские группы и наногруппы на эмоциональном уровне. Предлагаемая ими информационная персональная утопия нередко также формирует и образ «врага» — объект для ненависти. В своё время ещё Мануэль Кастельс заметил, что фабрикация сконструированных и дезинформирующих сообщений с целью продвижения чьих-либо интересов — основная тактика пропаганды и контроля общественного мнения, по совместительству самая древняя и прямая форма медийной политики. Facebook можно обвинять и называть движущей силой, катализатором и инструментом пропаганды, однако владельцы, менеджеры и сотрудники этой фабрики постправды остаются теми же: политики, эксперты по информационной войне, политконсульты, маркетологи, армии низкооплачиваемых активистов и неоплачиваемые политические тролли. Если мы действительно хотим понять, каково жить в эпоху постправды, следует обратиться к журналисту, которому приходится каждый день писать лояльные статьи в поддержку высшего руководства страны, к экспертам по маркетингу или профессиональным онлайн-троллям, ежедневно пишущим сотни фейковых комментариев. Может, нам стоит вновь прочитать «1984» Оруэлла. Вероятно, это поможет понять, как существовать в дистопии общества постправды.

Можно также переформулировать высказывание романиста Уильяма Гибсона «будущее уже здесь — оно просто неравномерно распространено» в «правда всё ещё здесь, она просто неравномерно распространена». В расцвет больших данных, глобальной слежки и перспективы развития  умных городов необходимо задаться вопросом, кто будет владеть всей этой информацией. Тогда мы поймём, кто имеет доступ к статистически выверенной и сгенерированной алгоритмами версии «правды». Доступ к правде есть и останется привилегией политической, экономической и технологической элиты, пока остальные будут источниками данных, постоянно терроризируемыми эмоциональной нагрузкой.

Ян Красни. Доцент Университета Белграда, исследователь Share Lab

Алгоритмы не только структурируют контент, который мы получаем в соответствии с нашими интересами, но и создают его. Информационная изоляция была известна уже некоторое время, однако недавно она стала реальной проблемой. Швейцарский журнал Das Magazin опубликовал расследование о том, как алгоритмы, основывающиеся на аналитике пользовательского поведения и «психограммах», сделали возможной победу Трампа. «Онлайн-отряд» Трампа должен был генерировать такое количество разнообразного контента, чтобы иметь возможность покрыть широчайшие слои пользователей. Этот контент был распределён в соответствии с психологическими профилями пользователей. Медиамонополисты, собиравшие данные о посещениях и других особенностях поведения пользователей, и превратили некогда бывшую дисциплину психологической аналитики пользовательской активности в проблему производства постправды.

Хотя для них это вовсе не является проблемой, до тех пор пока это приносит им деньги. Например, когда вы заходите на страницу Google News, вы видите небольшие разделы и секции с изображениями, заголовки, картинки и лиды. Всё это — составные элементы, собранные из разных источников. Алгоритм собирает их вместе, и получается что-то вроде автоматически сгенерированного кликбейта (способ создания заголовка, при котором возможно некоторое недоговаривание и искажение смысла текста ради того, чтобы спровоцировать читателя нажать на него. — Прим. ред.). Фактически, речь идёт о формировании всё новых текстов, собранных при помощи монтажа. «Кликбейты» или «ньюсбейты» собираются в зависимости от той информации, которая известна алгоритму о пользователе или пользовательских группах. Персонализация формируется не столько с нашей помощью, сколько посредством опять же алгоритмов. Получается, что алгоритм может распознавать значения. Другими словами, новостные ленты действительно не только отражают наши интересы и предпочтения, но и влияют на них, создавая или хотя бы влияя на то, что мы получаем в качестве личной ленты новостей ежедневно.

Механизм персонализации опирается на то, что принято называть «цифровыми следами», — информацию, которую вы оставляете, находясь онлайн. Эти обрабатываемые метаданные (данные о свойствах и признаках файла, например информация об авторе на веб-страницах. — Прим. ред.) формируют описание вашего поведения и некоторый набор персональных характеристик. Алгоритмы и нейронные сети, стоящие за новостными лентами, работают с паттернами: если вы придерживаетесь традиционных взглядов, вы будете получать те статьи и материалы, которые будут идеологически маркированы как «традиционные». Если же вы хранитесь в базе как сторонник либеральных взглядов, именно такой контент вы, скорее всего, получите. Даже если вы и не станете более либеральным или традиционным, вы не сможете изменить свой «лейбл», поскольку алгоритм не позволит попасть в ваше поле интересов «не тому» материалу. Когда вы рисуете, линия становится более насыщенной, если вы её уже рисовали — мозг и мышечная память помогают вам сделать это. То же самое происходит и с новостной лентой: по мнению алгоритма, вы не можете измениться, не можете развиваться. В этом и состоит проблема автоматизированных персональных дискурсов (то есть смысловой суммы текстов в вашей ленте. — Прим. ред.): они узнают вас и не позволяют вам менять мнение.

Когда дело доходит до анализа автоматизированных дискурсов, то необходимо понимать, что нельзя говорить о них только с позиций медиаисследований, компьютерных наук, корпусной лингвистики или с точки зрения любой другой дисциплины, появившейся в ХХ веке. Технологии влияют на нашу повседневность и стратегии принятия решений гораздо сильнее. Так что вместо «поворота к данным» стоит говорить о «повороте к алгоритмам», обратиться к концепту методологического плюрализма и принять тот факт, что подходы к изучению чего-либо определяются феноменом, а не дисциплиной или исследовательской школой.

Текст: Екатерина Арье