Россия использует технологии искусственного интеллекта для создания дипфейков, направленных против украинских беженцев. Как выяснило совместное расследование Русской и Украинской служб «Голоса Америки», дезинформаторы из России подделали голос украинской девушки-подростка, переехавшей в США, и приписали ей ложные высказывания. Источник: LRT
В одном из видео, выполненном в формате телевизионного репортажа, показана юная украинская беженка и ее опыт учебы в частной школе в США. Однако затем зрителям демонстрируют переполненные коридоры, пакеты с наркотиками, а закадровый голос, имитирующий голос подростка, описывает ужасы американских школ, используя расистские стереотипы. В этом же ролике дипфейковый голос говорит, что платить за безопасность девочки должны американцы, а не ее семья. При этом сама беженка подобных заявлений не делала, а её голос, вероятно, был искусственно сгенерирован.
По данным расследования, это видео и другие подобные ролики являются частью российской информационной операции «Матрешка», направленной на дискредитацию украинских беженцев. В соцсетях X и BlueSky были обнаружены два видео, изображающие переселенцев из Украины как корыстных людей, не испытывающих благодарности к странам, предоставившим им убежище. В рамках той же кампании распространялись дипфейки с подделанными заявлениями западных журналистов, в которых утверждалось, что ложь распространяет не Россия, а Украина.
Читайте также: В Молдове ведут гибридную войну с помощью дипфейков
Эксперты отмечают, что нацеливание российской пропаганды на беженцев не является новым явлением. Роман Осадчук из Лаборатории цифровых криминалистических исследований Атлантического совета напомнил, что в 2022 году после российского ракетного удара по вокзалу в Краматорске, в результате которого погибло более 60 человек, российские дезинформаторы подделали репортаж BBC, утверждая, что ответственность за трагедию несёт Украина. В тот же период Россия распространяла дезинформацию в Молдове, пытаясь настроить местных жителей против украинских переселенцев.
Подделка журналистских материалов служит разным целям. В одном из недавних видео, распространяемых в рамках «Матрешки», якобы звучит голос основателя расследовательского издания Bellingcat Элиота Хиггинса, заявляющего, что наступление Украины на Курскую область — это блеф, а страна переживает «предсмертные спазмы». В другом видео фальшивый голос старшего журналиста BBC Шаяна Сардаризаде утверждает, что Украина подделывает новости, чтобы дискредитировать Россию. Оба видеоролика оказались дипфейками. Хиггинс подтвердил, что не делал таких заявлений, а целью распространителей, по его мнению, могло быть привлечение внимания журналистов и искусственное увеличение просмотров контента.
Использование дипфейков в информационных кампаниях стало возможным благодаря развитию технологий искусственного интеллекта. Ранее дипфейки применялись преимущественно для создания компрометирующих изображений знаменитостей и политиков, однако сейчас они используются для манипуляции общественным мнением. По оценкам экспертов Центра анализа угроз, полностью синтетические видео мировых лидеров обычно выглядят неубедительно, тогда как поддельные аудиозаписи могут оказаться более эффективными.
Опубликованные в рамках российской кампании «Матрешка» видео с поддельными аудиозаписями подтверждают, что опасность дипфейков выходит далеко за рамки распространённых ранее сексуализированных изображений и фальшивых заявлений политиков. Эксперты подчёркивают, что любой человек, чьи фото или видео доступны в интернете, рискует стать жертвой подобных манипуляций.
Украинские беженцы особенно уязвимы перед такими атаками. Белль Торек, адвокат, специализирующаяся на гражданских правах, отмечает, что люди, чьи образы используются без их согласия, испытывают страх, беспомощность и унижение. Для беженцев, переживших травматический опыт войны и вынужденного переселения, осознание того, что их личность используют в целях пропаганды, может стать дополнительным ударом.
Насколько эффективны такие дипфейковые кампании, оценить сложно. Один из постов с фальшивыми видео о беженцах в соцсети X набрал более 55 тысяч просмотров. По словам старшего аналитика Института стратегического диалога Ольги Токарюк, это говорит о значительном распространении, хотя контент пока нельзя назвать вирусным.
Исследователи отмечают, что российские дезинформаторы нередко искусственно увеличивают охват подобных публикаций с помощью подконтрольных аккаунтов. Однако даже если реальных зрителей немного, невозможно точно сказать, влияет ли дезинформация на их мнение. По словам Токарюк, доказать со стопроцентной уверенностью влияние подобных кампаний на политику крайне сложно.
Напомним, спецслужбы Соединенных Штатов опубликовали новые рекомендации по распознаванию дипфейков. В рекомендациях указывается, что технология фейковых изображений, прежде всего, может представлять риски для кибербезопасности Минобороны, а также остальных ведомств государства.
Сообщалось, что перед выборами в парламент Словакии, в сети появились фейковые аудиозаписи якобы частных разговоров политиков страны и эти дипфейки могли внести свою лепту в результаты выборов.
Только главные новости в нашем Telegram, Facebook и GoogleNews!
Tweet