Фальшивые аудиозаписи становятся излюбленным оружием дезинформаторов на выборах

Аудиоподделки становятся все более мощным инструментом информационной войны во время крупных выборов по всему миру: офис генерального прокурора Нью-Гэмпшира сообщил в понедельник, что проводит расследование по факту возможного подавления избирателей после получения жалоб на то, что «искусственно сгенерированный» голос, похожий на голос президента Джо Байдена, обзванивал избирателей с призывом не участвовать в президентских праймериз.

Источник: FT

Читайте также: Как российская дезинформация повлияла на настроения в Буркина-Фасо

Исследователи также предупреждают, что использование реалистичных, но поддельных голосовых фрагментов, имитирующих политиков и лидеров, может распространиться. В 2023 году уже были зафиксированы случаи создания якобы синтетических аудиозаписей для влияния на политику и выборы в Великобритании, Индии, Нигерии, Судане, Эфиопии и Словакии.

Эксперты отмечают, что аудиоподделки становятся все более популярным средством дезинформации благодаря доступным и эффективным инструментам искусственного интеллекта, предоставляемым такими стартапами, как ElevenLabs, Resemble AI, Respeecher и Replica Studios. Например, исследовательское подразделение Microsoft разработало модель искусственного интеллекта под названием VALL-E, способную клонировать голос по трехсекундной записи, предоставленной пользователем.

«Мы все привыкли к визуальным манипуляциям с использованием программы Photoshop или, по крайней мере, знаем о ее существовании. О возможностях манипуляции аудиоматериалами мы знаем гораздо меньше, поэтому, на мой взгляд, это делает нас особенно уязвимыми», — отметил Генри Адждер, эксперт по ИИ и консультант компаний Adobe, Meta и EY.

В сентябре NewsGuard, компания, оценивающая качество и достоверность новостных сайтов, обнаружила сеть аккаунтов TikTok, выдававших себя за настоящие новостные издания, но фактически распространявших искусственно сгенерированные голоса, пропагандирующие теории заговора и политическую дезинформацию.  По информации NewsGuard, фальшивые голоса были созданы с помощью инструмента, предоставленного компанией ElevenLabs, которая получает поддержку от Andreessen Horowitz.

За последний год рынок инструментов, позволяющих преобразовывать текст в речь, заметно вырос.

Иногда бывает сложно определить, какие компании используются для создания политически мотивированных фейковых аудиозаписей, так как большинство инструментов не способны идентифицировать первоисточник. Однако все более широкое распространение таких продуктов на базе искусственного интеллекта вызывает опасения относительно возможного злоупотребления в нерегулируемой сфере. В прошлом году американские спецслужбы предупредили в своем докладе, что «наблюдается резкий рост мошенничества с использованием персонализированного искусственного интеллекта, особенно с учетом появления сложных и хорошо обученных моделей клонирования голоса с применением искусственного интеллекта».

Помимо финансового мошенничества, политические эксперты выражают тревогу в отношении вирусных аудиоклипов deepfake и использования в автоматических телефонных звонках и предвыборных кампаниях.

Напомним, что Китай планирует генерировать конфликты на Тайване дезинформацией.

# # #

Только главные новости в нашем Telegram, Facebook и GoogleNews!