Инфраструктура мирового интернета, в которую входят различные медиа (дублирующие офлайн или работающие только в сети), социальные сети и поисковики, стала для населения планеты главным источником информации о происходящем в мире. Однако доступность и глобальность информационного потока обернулись неожиданным социальным эффектом. Производители фейков, дезинформации, мифов и пропаганды разного рода пользуются преимуществами новой модели продвижения своего продукта не менее, а иногда и более успешно, чем создатели качественного контента. Самые нелепые выдумки и мифы достигают максимальной аудитории в кратчайшие сроки. В результате новая глобальная информационная инфраструктура интернета вносит сегодня огромный вклад в повсеместный подъем популизма и тенденций политической поляризации.
Человечество пока не вполне осмыслило новые механизмы доставки информации и их побочные эффекты, а также ту роль, которую играют в этом процессе различные элементы новой информационной инфраструктуры, в частности алгоритмы поисковых платформ и социальных сетей. Между тем именно они в значительной мере «ответственны» за видимость той или иной информации, охват аудитории и скорость распространения.
Создатель первого новостного агрегатора «Яндекса» и бывший глава «Яндекс.Новости» (2005–2012), основатель сервиса The True Story Лев Гершензон считает, что жесткая дихотомия свободы распространения информации и цензуры — ложная. Проблема заключается не в «фейках» как таковых, а в механизмах их продвижения. Гершензон предлагает пересмотреть подход к противодействию ложной информации. Для этого необходимо создать механизм «информационной кармы», который будет автоматически предоставлять пользователю сведения о степени надежности источника или ретранслятора информации. Алгоритмы поисковых платформ и сетей в значительной мере девальвировали институт репутации СМИ, который раньше создавал маркеры качества информации и структурировал информационный поток. Встроенный в алгоритмы сетей и платформ и автоматически генерируемый код «информационной кармы» позволит отчасти восстановить институт репутации и создать противовес краткосрочным выгодам кликбейта в виде долгосрочных репутационных потерь.
Главной особенностью интернета как механизма доставки информации потребителю является диверсифицированность каналов и принципиальное значение посредников. Значимость новости определяется тем, сколько человек ее увидит. А между публикатором информации и потребителями стоит инфраструктура посредников, и именно от нее зависит, насколько широким будет в конце концов охват аудитории. В результате алгоритмы и особенности социальных сетей и, в еще большей степени, алгоритмы поисковых платформ непосредственно и значительно влияют на качество той информации, которая достигает потребителя. Причем соцсети и поисковые платформы играют в этом процессе несколько различную роль.
Аудитория качественных медиа, как правило, сильно зависит от переходов из поисковой выдачи Google и из связанного с ней рекомендательного сервиса Google Discover. В то же время развлекательный контент, а также провокационный, часто содержащий дезинформацию (фейки), зависит от этих алгоритмов меньше, поскольку распространяется через социальные сети и знаменитостей-инфлюенсеров. Это два разных способа движения информации к потребителю. Пессимизация авторитетных источников информации в поисковой выдаче и рекомендательных лентах приводит к тому, что дезинформация получает больший вес, оказывается в меньшей степени уравновешенной серьезным контентом.
Проблема стала очевидна в марте нынешнего года, когда Google провел обновление своего основного алгоритма. Медиа, которым жизненно важна видимость в поисковой выдаче, пострадали тогда по всему миру. Но особенно тяжелыми последствия обновления были для украинских медиа: качественные издания потеряли от 30 до 70% дневной аудитории и до 80% рекламной выручки. Смысл обновления заключался, разумеется, не в том, чтобы наказать украинские медиа, а в том, чтобы «облегчить» ленту, сделать ее менее тревожной и более развлекательной, снизить присутствие в ней новостей, в первую очередь «тяжелых». Но в Украине в итоге пострадала качественная журналистика: в стране идет война, и с ней так или иначе связаны все политические и общественные процессы и новостные поводы.
Параллельно своего рода пессимизация серьезного контента происходила и в соцсетях. Так, компания Meta, в которую входит Facebook, решила освободить пользователей от «тяжелого» политического, а по сути, просто новостного контента, внеся соответствующие изменения в алгоритм. В начале 2024 года компания Chartbeat проанализировала 1930 новостных сайтов и обнаружила, что в декабре 2023-го на долю Facebook приходилось 33% трафика переходов из социальных медиа на эти сайты, при том что годом ранее эта доля достигала 50%. В некоторых странах решение Meta было связано с правительственной политикой. Например, в 2023 году, после принятия в Канаде закона, обязавшего платформы платить канадским СМИ за произведенный ими контент, Facebook ввел для своих канадских пользователей запрет на расшаривание новостей. Еще раньше, в 2021-м, по аналогичным причинам Meta ввела такой запрет в Австралии. Но вскоре, придя к выводу, что это не лучший результат регулирования, австралийское правительство пошло на соглашение с социальной сетью, и Facebook отменил свое решение.
Так или иначе, эти примеры показывают, что сдвиг в алгоритме поисковика или социальной сети ведет к значительным изменениям в доступности тех или иных типов контента для потребителей и, в результате, к сдвигам в их «картине мира». Алгоритмы пытаются «облегчить» эту картину, замечая, что «тяжелый» контент пользуется меньшим спросом. Однако фейки и сенсации проходят это «сито», и в результате рекомендованный поисковиками или одобряемый сетями контент «желтеет».
Если один тип контента — «серьезный» — алгоритм может пессимизировать, то фейк, наоборот, благодаря алгоритму может оказаться в топе. Гипотеза, подкрепленная опытом наблюдений, состоит в том, что единица контента, которая за короткое время демонстрирует взрывной рост, то есть вызывает много комментариев и взаимодействий — «реакций», «шеров» и пр., — получает поддержку от алгоритма. Быстрый рост взаимодействия (виральность) — это сигнал для алгоритма о том, что у текста или ролика хороший потенциал роста, поэтому его можно показать большему числу людей.
Таким образом, если у производителя контента есть ресурсы, сети, а еще лучше — физические пользователи, которые могут согласованно действовать по определенным указаниям, то повлиять на процесс распространения контента совсем не сложно. У платформ есть механизмы, позволяющие отслеживать активность такого рода, но производители контента тоже не стоят на месте. Можно констатировать, что создателями и распространителями контента по-прежнему тратятся огромные бюджеты на то, чтобы манипулировать алгоритмами платформ.
Например, у AfD в Германии аудитория в TikTok больше, чем у всех остальных партий вместе взятых. AfD при этом не является партией, превосходящей все остальные партии страны по популярности. Она даже не является самой популярной партией среди молодежи. Но AfD умеет работать с этой платформой, и в результате ее контент там оказывается гораздо более заметным, чем это можно было бы ожидать, ориентируясь на естественный уровень популярности партии.
В этой области встречаются почти необъяснимые явления. Если мы посмотрим, какие сайты получают больше всего переходов, то обнаружим в верхней части списка не только пропагандистские ресурсы, но и на первый взгляд случайные, такие, которые ни по своей тематике (очевидно, нишевой), ни по качеству контента вроде бы не должны попадать в выборку. Например, загадочным образом некоторое время ресурсом номер один по количеству переходов с Google в российском сегменте интернета являлся региональный сайт Мурманской области hibiny.ru — их у него было более миллиона в день, в 10 раз больше, чем у сайта газеты «Коммерсантъ», и в четыре раза больше, чем у сайта РИА «Новости». Общественно-политической информации на hibiny.ru совсем немного — в основном местные повседневные события, спортивные и развлекательные материалы. В Google Discover этот сайт представлен не региональными новостями, а материалами «общего интереса», и часто не на российскую тематику. Вряд ли это означает, что менеджеры сайта лучше всех манипулируют алгоритмом поисковика. Это может значить, что алгоритм достаточно прост и что в работе с ним случайный сайт может добиться значительного «успеха». Но пока это только гипотеза.
Однако в общем виде проблема является не гипотезой, а жестокой реальностью: при желании и наличии ресурсов алгоритм можно «обмануть» и искусственно приподнять контент, после чего алгоритм, в соответствии со своей логикой, начнет бешено раскручивать «вброс». Платформы защищают «рыночную» логику алгоритма: он выдает в первых строках то, что пользуется спросом у пользователей. Но когда он сталкивается с совершенно нерыночными усилиями производителей пропагандистского контента, то в результате в их руках оказывается эффективным инструментом раскрутки.
В начале этого года в сети Х появились фотографии певицы Тейлор Свифт, сгенерированные с помощью искусственного интеллекта (так называемый deep fake). Изображения обнаженной Свифт, изготовленные без ее согласия, циркулировали в сети в течение 19 часов и набрали миллионы просмотров — до тех пор пока аккаунт, на котором они были размещены, не был закрыт модераторами. Если бы у платформы был работающий алгоритм детекции обнаженной натуры и контента, сгенерированного с помощью искусственного интеллекта, изображения были бы удалены намного раньше.
В чем здесь проблема? Поисковая платформа как информационный посредник не несет ответственность за содержание материала, который она индексирует, но она несет ответственность за широту его распространения, которая, как было показано, непосредственно зависит от настройки алгоритма. Конспирологические теории, ложь и полуправда распространялись всегда. Но сегодня стоимость «контакта», то есть доведения информации до пользователя, гораздо ниже, чем раньше. Автору контента не нужно тратиться на печать тиража и его распространение или на то, чтобы иметь частоту с большим покрытием. Он лишь встраивает свой материал в готовую инфраструктуру распространения, которой нет дела до качества контента и важна лишь максимизация общего охвата аудитории.
Иными словами, мы живем в новой реальности, к которой социально еще не адаптировались. Раньше на пути распространения фейкового контента оказывался механизм репутации — издания, телеканала и пр.; теперь единственным посредником между распространителем и получателями информации оказывается бездушный алгоритм, который к тому же уязвим. В результате, несмотря на то что цена проверки той или иной информации также, казалось бы, кратно снизилась, мы оказались в мире, где фейки и мифы распространяются с ошеломляющей скоростью и достигают колоссальных аудиторий в считаные часы. Страшно представить себе, что было бы, если бы у Геббельса были телевидение, социальные медиа и рекомендательные сервисы.
В конце июля в городе Саутпорт в Британии во время занятий детского танцевального клуба были убиты три девочки. Вскоре после трагедии фальшивый новостной аккаунт в сети X сообщил, что предполагаемый убийца — недавно прибывший беженец и, судя по имени, мусульманин. Это вызвало волну антимигрантских демонстраций и антимусульманских беспорядков в стране. Когда вскоре выяснилось, что задержанный родился в Британии и мусульманином не был, создатели аккаунта опубликовали извинения за публикацию «недостоверной информации». Этот аккаунт до сих пор активен в сети X.
Разумеется, говорить, что социальные медиа — зло, неверно. Сети облегчили распространение любой информации, но они же дают возможность сделать работу с информацией более продуктивной и безопасной. И дело не в бесконечном расширении модерации — к этому вопросу можно подойти с другой стороны. Например, посмотреть, как собирается и анализируется информация в банковской или страховой сферах, где у каждого клиента накапливается кредитная история. Эта история позволяет понять о человеке очень многое и спрогнозировать его вероятное поведение в будущем. Похожим образом в информационной среде можно накапливать информацию о добросовестности производителей и распространителей контента, об их «информационной карме».
Конечно, любой пользователь может подавать платформам жалобы на контент и через несколько часов или суток этот контент, возможно, будет удален. Но, во-первых, за эти часы ролик или сообщение может охватить уже огромную аудиторию, часть которой превращается в его добровольных ретрансляторов, и, во-вторых, не существует единой практики санкций против лживой и вредной информации, а определение уровня «недостоверности» и «вредности» является отдельной сложной задачей. С моей точки зрения, ответственность должна заключаться в том, что публикатор незаконного или ложного контента должен накапливать такую «карму», которая будет видна потребителю и в соответствии с которой будет пессимизироваться выдача его контента, если его прежние публикации оказывались частью «трека» недостоверной информации.
Есть фактчекерские проекты, которые позволяют автоматически выявлять сгенерированный искусственным интеллектом, сфальсифицированный или незаконный контент. Если выясняется, что на сайте или в аккаунте было много случаев его публикации или трансляции, для этого сайта или аккаунта должны наступать последствия. И механизм этих последствий должен быть «зашит» в алгоритмы поисковой выдачи, которые таким образом будут сразу сообщать потребителю данные о репутации источника или ретранслятора информации. По сути дела, такая автоматически отслеживаемая «карма» восстановит институт репутации, значимость которого в сегодняшней реальности так сильно понизили или заменили собой алгоритмы выдачи.
Обсуждение этой темы часто наталкивается на рассуждения о свободе информации и цензурных последствиях различных регуляторных решений. Однако жесткая дихотомия «цензура — свобода», на наш взгляд, является ложной. В реальности мы имеем дело с большим спектром информационных вызовов: в одних случаях речь идет о разжигании ненависти или о призывах к насилию, в других — о распространении лживой, фейковой информации. Такая информация может не содержать призывов к насилию, но в итоге вести к нему или оправдывать его.
Это не надуманная проблема. У пользователей социальных сетей и потребителей рекомендаций поисковика или специального сервиса нет возможности различать качество информации и проверять его. Данные отчета Digital News Report от Reuters Institute за 2024 год показывают, что в TikTok и Х не менее четверти пользователей затрудняются определить достоверность информации, а среди пользователей Google таких 13% (если, конечно, те, кто считает, что легко распознает фейки, не являются на самом деле их активными потребителями).
Механизм «информационной кармы» и встроенный фактчекинг должны стать сервисом, который указывает потребителю, что такая-то информация имеет «большой след», то есть является консенсусной, подтверждается многими авторитетными источниками. А такой-то факт встречается в публикациях только определенного типа. Связка фактчекерских инструментов и «информационной кармы», накапливающей данные о количестве недостоверной информации, связанной с источником, должны работать в качестве рекомендации пользователю.
Технически это вполне осуществимо. Вероятностные классификаторы для определения ложной информации у платформ есть. Препятствие для реализации такого подхода — не технология, а воля и бизнес-модели платформ. В тех сферах, где регуляторы обязывают жестко модерировать контент, например не допускать пропаганду насилия и язык ненависти, многие платформы с этими задачами справляются. Но ограничение распространения недостоверного контента не укладывается в бизнес-модель платформ. Вовлеченность пользователя для них важнее. Правдивая информация часто может быть менее популярной, чем броская теория заговора. А чем меньше вовлеченности пользователей — комментариев и реакций, — тем меньше показанной рекламы.
Чтобы повысить значимость достоверной информации для платформ, нужно, чтобы издержки от распространения недостоверного или опасного контента были выше, чем доходы от большей вовлеченности пользователя. Неправильно, впрочем, было бы налагать на платформы ответственность за качество всего опубликованного на них контента — но чем больше аудитория, которой платформы этот контент показывают, тем выше ответственность посредника, который может и должен предоставлять пользователю «метаданные» информации — указывать на ее происхождение и предполагаемый уровень качества. В итоге и для публикаторов и ретрансляторов недостоверной информации краткосрочные выгоды кликбейта будут уравновешиваться долгосрочными репутационными издержками.