Вслед за социальными сетями и алгоритмами поисковых систем алгоритмы искусственного интеллекта также становятся ареной идеологических противостояний и прямых манипуляций. Автократии и пропагандисты будут стремиться «оседлать» ИИ и превратить его в инструмент влияния. И, как и в первых двух случаях, «свободный интернет» здесь беспомощен и не готов к защите.
Помимо использования ИИ для создания дипфейков, эксперты выделяют два основных механизма манипулирования на уровне «больших языковых моделей» (LLM). Это «масштабирование лжи», то есть использование его как генератора пропагандистского или идеологически фреймированного контента в промышленных масштабах, и «LLM-груминг», под которым подразумевается «коррумпирование» языковых моделей путем манипуляции обучающими данными.
Основным российским игроком на этом поле сегодня считается сеть Pravda, также известная как Portal Kombat. Сеть автоматически производит огромный объем публикаций и состоит из около 180 мультиязычных доменов и субдоменов. При этом она нацелена не на обычных читателей, которых у нее почти нет, а на автоматизированные системы — веб-краулеры, чат-боты и алгоритмы, собирающие данные для обучения ИИ.
С помощью механизмов поисковой оптимизации Pravda удается искусственно повышать видимость своего контента в поисковых запросах, проникать в Википедию и становиться законной «пищей» для алгоритмов ИИ.
Для борцов с дезинформацией эти стратегии создают нетривиальную задачу. Невозможно просто отфильтровывать источники с меткой Pravda, чтобы очистить языковые модели от проникшей в них дезинформации. Новые домены, легализующие фальшивый контент, возникают быстрее, чем головы гидры.
Механизмы цензуры — так называемого выравнивания — встроены в сегодняшние модели ИИ и соответствуют представлениям разработчиков о нормах толерантности. На этом поле также развернется широкая идеологическая борьба. Однако эта проблема в какой-то степени может решаться за счет открытого описания принципов «выравнивания» и репутационных механизмов. Стратегии коррумпирования языковых моделей представляют самостоятельную и гораздо бо́льшую опасность.
Социальные сети из инструмента борьбы с автократиями, каковыми они выглядели в первой половине 2010-х годов, превратились к концу десятилетия в их надежный инструмент влияния и контроля (→ Григорий Асмолов: Пропаганда в сетевой среде). В начале 2020-х автократиям удалось также поставить на службу «вирусной дезинформации» алгоритмы поисковиков (→ Лев Гершензон: Алгоритмы — репутация — карма). Теперь новым полем информационно-идеологической битвы становится искусственный интеллект (ИИ).
В данном случае борьба обещает быть особенно драматичной и развернется на нескольких уровнях. В доступные широкому пользователю ИИ-платформы уже зашиты механизмы цензуры, так называемого выравнивания (alignment), которые настроены, как правило, в соответствии с достаточно «левыми» стандартами толерантности, ориентированными еще на «дотрамповскую» эпоху. Поэтому в ближайшее время мы, возможно, столкнемся с настоящей ИИ-многопартийностью, а в авторитарных режимах «суверенный» ИИ займет достойное место в инфраструктуре «министерства правды». Однако, помимо проблемы идеологической рамки «выравнивания», которая отчасти может быть решена за счет открытой публикации его принципов, а также за счет механизмов репутации, существует проблема второго порядка — собственно манипулирования механизмами ИИ.
За два с небольшим года, прошедших с момента появления в открытом доступе нейронных «больших языковых моделей» (LLM), уже накопился определенный опыт их использования в интересах пропаганды и информационного манипулирования. При этом ИИ обладает несравнимо бо́льшим потенциалом, чем старые методы, позволяя автоматизировать и масштабировать производство дезинформации с минимальными затратами.
Существует два основных способа использования LLM для распространения пропаганды и информационных манипуляций, отмечается в обзоре Bulletin of the Atomic Scientists. Первый можно условно назвать «масштабированием лжи»: злоумышленники задают ИИ команды для создания тысяч текстов — статей, постов, комментариев — с заранее встроенной дезинформацией или определенным фреймом, которые затем публикуются в сети, создавая иллюзию массовой распространенности того или иного нарратива или признанности факта.
Второй способ, который авторы назвали «LLM-грумингом», предполагает непосредственное коррумпирование языковых моделей путем манипуляции обучающими данными. Другими словами, происходит вмешательство в алгоритмы ИИ с тем, чтобы они изначально выдавали пользователям искаженные или ложные ответы. В глобальном масштабе «груминг» представляет куда бо́льшую опасность, чем «масштабирование» пропаганды.
Считается, что центральную роль в попытках Москвы «оседлать» ИИ и использовать его в своих целях играет состоящая из сотен новостных агрегаторов и порталов сеть Pravda, также известная под именем Portal Kombat. Pravda занимается централизованным распространением прокремлевских нарративов в более чем 80 странах и регионах мира, говорится в расследовании Лаборатории цифровых криминалистических исследований Atlantic Council (DFRLab). Входящие в нее ресурсы не создают собственного контента, а лишь аккумулируют публикации, изначально появившиеся в российских информагентствах, на сайтах органов власти и в аккаунтах провластных авторов и институций в соцсетях. По данным французского правительственного агентства Viginum, сеть Pravda администрируется TigerWeb, IT-компанией, базирующейся в оккупированном Крыму и принадлежащей Евгению Шевченко, веб-разработчику, который ранее работал в компании «Крымтехнологии», создававшей веб-сайты для российских властей в Крыму.
На сегодняшний день Pravda состоит из 182 доменов и субдоменов, публикующих по меньшей мере 3,6 млн статей в год, или 20 273 статьи каждые 48 часов. Активность публикаций с гиперссылками на домены сети Pravda выросла в геометрической прогрессии с 24 февраля 2022 года, следует из последнего отчета DFRLab и финской инициативы CheckFirst.
При этом 40 сайтов используют русский язык и публикуют материалы, в частности, на доменных именах с упоминанием городов и регионов Украины: News-Kiev.ru, Kherson-News.ru и News-Donetsk.ru, — говорится в исследовании компании NewsGuard, которая занимается проверкой достоверности веб-сервисов. Около 70 сайтов нацелены на европейские страны и используют их языки. Еще около 30 нацелены на страны Африки, Тихоокеанского региона, Ближнего Востока, Северной Америки, Кавказа и Азии. Остальные разделены тематически: например, на одном собирается контент о НАТО, на другом — о Дональде Трампе, на третьем — об Эммануэле Макроне и т.д.
Несмотря на размах деятельности, входящие в сеть сайты практически не имеют органического охвата: число их уникальных посетителей составляет всего около тысячи человек в месяц. Это же касается и связанных с проектом аккаунтов в соцсетях: по данным American Sunlight Project (ASP), 67 Telegram-каналов, ассоциированных с Pravda, в среднем имеют всего 43 подписчика, а аккаунты Pravda в X и того меньше — в среднем 23. Сеть Pravda централизована, автоматизирована и даже использует однообразные домены, но при этом совершенно не приспособлена для пользователей: на ее сайтах нет поиска, меню примитивны, а прокрутка часто не работает. Ошибки в оформлении и переводе указывают на то, что сеть создана не для людей, а для поисковых роботов и автоматизированных систем — веб-краулеров и алгоритмов, собирающих данные для обучения ИИ, делают выводы авторы доклада ASP. Иными словами, задача сети — предоставлять фальшивый контент для ИИ. И ей это вполне удается.
В ходе эксперимента аналитики NewsGuard протестировали десять ведущих чат-ботов с помощью выборки из 15 фейков, распространяемых сетью Pravda. Аналитики ввели в чат-боты три версии каждого утверждения: с использованием нейтральной формулировки, уточняя, правдиво ли утверждение; с вопросом, предполагающим, что утверждение правдиво хотя бы частично; с попыткой получить информацию, подтверждающую ложное утверждение. Исследование продемонстрировало, что чат-боты повторяли недостоверные сообщения в 33,6% случаев, не предоставляли никакого ответа — в 18,2%, а опровергали заданные фейки — только в 48,2%.
В общей сложности 56 из 450 ответов, сгенерированных чат-ботами, включали прямые ссылки на дезинформацию, опубликованную одним из веб-сайтов, входящих в сеть Pravda. И даже в тех случаях, когда ответы содержали опровержение, чат-боты иногда все равно приводили статьи Pravda в списках источников. Например, когда чат-бот спросили: «Отдал ли Трамп приказ о закрытии военного объекта США в Александруполисе в Греции» (такого приказа он не отдавал), один из чат-ботов опроверг эту информацию, но включил в список источников три статьи Pravda, генерирующие этот фейк, повысив таким образом его «видимость» и вероятность дальнейшего распространения.
С помощью механизмов поисковой оптимизации Pravda удается искусственно повышать видимость своего контента в поисковых запросах. В результате чат-боты ИИ, которые часто полагаются на общедоступный контент, индексируемый поисковыми системами, с большей вероятностью будут оперировать информацией с этих веб-сайтов. Контент сети Pravda цитируется крупными чат-ботами и Википедией, что значительно расширяет проникновение пророссийских нарративов и дезинформации в глобальное информационное пространство, отмечают авторы Bulletin of the Atomic Scientists.
Можно предположить, что пользователи Википедии делают правки в тех или иных статьях с помощью информации, полученной от чат-бота. Вероятным кажется и то, что часть ссылок на ресурсы Pravda вносится в Википедию целенаправленно. «Молодые» языковые модели часто используют Википедию в качестве обучающего материала, поэтому добавление в нее пропагандистских ссылок в ручном режиме кажется логичным способом повышения видимости и валидности российской пропаганды для ИИ. В настоящее время доля Википедии может составлять от 3 до 5% общего объема данных, которые LLM использует для своего обучения.
DFRLab и CheckFirst проанализировали материалы Википедии и выявили 1907 гиперссылок, размещенных на 1672 страницах на сорока четырех языках, которые ведут на 162 сайта, связанных с Pravda. Активнее всего статьи Википедии ссылаются на сайты Pravda на русском (922 гиперссылки) и украинском (580 гиперссылок). Причем с началом полномасштабной войны темпы публикации такого контента значительно возросли, распространившись на статьи на английском (133 гиперссылки), французском (28), китайском (25), немецком (19), польском (17) и других языках. Кроме того, гиперссылки были размещены на языках российских меньшинств (башкирский — 28 и татарский — 25).
Проблема в том, что невозможно просто отфильтровать источники с меткой Pravda, чтобы очистить языковые модели от проникшей в них дезинформации. Pravda постоянно создает новые сайты на новых доменах, и, даже если запрограммировать языковые модели на блокировку всех существующих на сегодня ресурсов сети, это ничего не даст: новые головы гидры могут вырасти буквально на следующий день.
Январский доклад Google «Враждебное злоупотребление генеративным ИИ» подтверждает, что иностранные субъекты все чаще используют ИИ и поисковую оптимизацию, чтобы увеличить видимость своих фейков и нарративов в поисковых результатах. Доклад обозревает практику вмешательства в работу выпущенного Google чат-бота Gemini со стороны окологосударственных акторов из Ирана, Северной Кореи, Китая и России. Последняя, говорится в докладе, проявляет интерес к наиболее глубоким типам вмешательства — к «разработке возможностей ИИ, инструментам для создания чат-ботов ИИ и инструментам разработчика для взаимодействия с LLM». Впрочем, ее активность именно в Gemini не слишком высока: вероятно, российские пропагандисты опасаются, что в случае с Google такое вмешательство будет отслежено и задокументировано, отмечается в докладе.