Европейское агентство по кибербезопасности (ENISA) предупреждает, что новейшие мощные модели искусственного интеллекта могут представлять серьезную угрозу для выборов в Европейском союзе, которые запланированы на июнь следующего года. Модели могут использоваться злоумышленниками для проведения обширных кампаний манипуляции информацией.
Источник: Euractiv
Предупреждение содержится в ежегодном обзоре развивающихся тенденций в области кибербезопасности.
В фокусе внимания находятся потенциальные проблемы, связанные с искусственным интеллектом, включая использование чат-ботов с ИИ, и возможные формы манипулирования информацией с использованием искусственного интеллекта.
Исполнительный директор ENISA, Юхан Лепассаар, отмечает, что доверие к избирательному процессу ЕС критически зависит от кибербезопасности инфраструктуры, а также от целостности и доступности информации.
Схожие опасения о возможном использовании мощных моделей искусственного интеллекта для нарушения избирательных процессов существуют и в других странах, включая США и Великобританию. Эксперты предупреждают о риске распространения вирусных изображений и видео, созданных искусственным интеллектом, а также использовании пропагандистских ботов, действующих на основе ИИ. Искусственный интеллект особенно активно применяется в сфере психологических манипуляций, таких как социальная инженерия, благодаря его способности создавать человекоподобный текст, аутентичные изображения и видео, а также проводить дипфейки – замену одной личности другой. ENISA также отмечает, что искусственный интеллект стал ключевым фактором в сфере социальной инженерии, способствуя созданию аутентичного текста, клонированию голоса и проведению интеллектуального анализа данных.
ENISA предупреждает, что распространенное использование генеративного искусственного интеллекта (ИИ) предоставляет злоумышленникам возможность проводить сложные и целенаправленные атаки с высокой скоростью и масштабом.
В частности, в отчете упоминается угроза клонирования голоса, которая представляет собой синтетическое воспроизведение голоса человека на основе небольших видеороликов.
Напомним, что на выборы в Словакии могли повлиять дипфейки.
Также сообщалось, что Британия пригласила Китай на глобальный саммит по регулированию искусственного интеллекта.
Только главные новости в нашем Telegram, Facebook и GoogleNews!
Tweet