ИИ под контролем режимов: РФ, Китай и Иран использовали ChatGPT для пропаганды

OpenAI сообщила о выявлении и прекращении деятельности сразу нескольких тайных операций, в рамках которых авторитарные режимы, включая Россию, Китай и Иран, использовали искусственный интеллект, в том числе ChatGPT, в целях пропаганды и дезинформации. Источник: Engadget

Согласно заявлению компании, в Китае было выявлено четыре кампании, в которых с помощью ИИ создавались комментарии и посты для социальных сетей, таких как TikTok, Facebook, Reddit и X. Эти публикации были направлены на манипулирование общественным мнением как внутри страны, так и за рубежом.

Тематика создаваемого контента варьировалась от политики США до компьютерной игры, где пользователи сражаются с Коммунистической партией Китая. Посты, созданные ChatGPT, часто отражали диаметрально противоположные точки зрения по острым темам, создавая иллюзию оживленного общественного обсуждения и усиливая политическую путаницу.

Главный аналитик OpenAI Бен Ниммо подчеркнул, что действия Пекина представляют собой растущий спектр тайных операций, использующих все более разнообразные тактики. Он добавил, что китайские кампании были направлены на множество стран и включали элементы социальной инженерии, слежки и влияния. По словам Ниммо, OpenAI также удалось остановить аналогичные кампании, предположительно исходившие из России, Ирана и Северной Кореи.

Это не первый случай использования ИИ в политических целях. Еще в 2023 году исследователи компании по кибербезопасности Mandiant установили, что с 2019 года искусственный интеллект активно применялся в политически мотивированных информационных кампаниях. В 2024 году OpenAI уже публиковала данные о попытках пяти государств использовать ее модели для злонамеренных задач, включая генерацию кода, сценариев и фишингового контента.

Особое внимание вызвала иранская операция, в ходе которой с помощью ChatGPT создавались объемные статьи о выборах в США. Эти материалы размещались на поддельных новостных сайтах, имитирующих как консервативные, так и либеральные американские медиа. Кроме того, фейковые аккаунты публиковали политические комментарии в соцсетях X и Instagram, представляя противоположные мнения по ключевым вопросам, тем самым усиливая поляризацию.

Ниммо отметил, что хотя использование ИИ не делает такие операции более активными, это не делает их менее опасными. По его словам, наличие более совершенных инструментов не гарантирует более эффективные результаты, однако они делают подобные кампании более доступными и массовыми.

Напомним, компания OpenAI заявила, что за последний год ей удалось нарушить работу более 20 операций и сетей, которые пытались использовать ее технологии генеративного искусственного интеллекта для вмешательства в политические процессы по всему миру, включая выборы в США, говорится в ее последнем отчете об угрозах.

# # # # #

Только главные новости в нашем Telegram, Facebook и GoogleNews!