Киберагентство ЕС предупредило об угрозе срыва выборов из-за искусственного интеллекта

Европейское агентство по кибербезопасности (ENISA) предупреждает, что новейшие мощные модели искусственного интеллекта могут представлять серьезную угрозу для выборов в Европейском союзе, которые запланированы на июнь следующего года. Модели могут использоваться злоумышленниками для проведения обширных кампаний манипуляции информацией.

Источник: Euractiv

Предупреждение содержится в ежегодном обзоре развивающихся тенденций в области кибербезопасности.

В фокусе внимания находятся потенциальные проблемы, связанные с искусственным интеллектом, включая использование чат-ботов с ИИ, и возможные формы манипулирования информацией с использованием искусственного интеллекта.

Исполнительный директор ENISA, Юхан Лепассаар, отмечает, что доверие к избирательному процессу ЕС критически зависит от кибербезопасности инфраструктуры, а также от целостности и доступности информации.

Схожие опасения о возможном использовании мощных моделей искусственного интеллекта для нарушения избирательных процессов существуют и в других странах, включая США и Великобританию. Эксперты предупреждают о риске распространения вирусных изображений и видео, созданных искусственным интеллектом, а также использовании пропагандистских ботов, действующих на основе ИИ. Искусственный интеллект особенно активно применяется в сфере психологических манипуляций, таких как социальная инженерия, благодаря его способности создавать человекоподобный текст, аутентичные изображения и видео, а также проводить дипфейки – замену одной личности другой. ENISA также отмечает, что искусственный интеллект стал ключевым фактором в сфере социальной инженерии, способствуя созданию аутентичного текста, клонированию голоса и проведению интеллектуального анализа данных.

ENISA предупреждает, что распространенное использование генеративного искусственного интеллекта (ИИ) предоставляет злоумышленникам возможность проводить сложные и целенаправленные атаки с высокой скоростью и масштабом.

В частности, в отчете упоминается угроза клонирования голоса, которая представляет собой синтетическое воспроизведение голоса человека на основе небольших видеороликов.

Напомним, что на выборы в Словакии могли повлиять дипфейки.

Также сообщалось, что Британия пригласила Китай на глобальный саммит по регулированию искусственного интеллекта.

# # # # #

Только главные новости в нашем Telegram, Facebook и GoogleNews!