Китайское шпионское агентство назвало риски искусственного интеллекта для нацбезопасности

Китайское агентство по шпионажу выразило опасения относительно потенциальных рисков, связанных с развитием технологий искусственного интеллекта (ИИ), особенно тех, которые могут представлять угрозу национальной безопасности.

Источник: SCMP

Читайте также: США, ЕС, Великобритания и Китай назвали искусственный интеллект «катастрофически опасным»

Министерство государственной безопасности подчеркнуло, что быстрый прогресс и широкое распространение ИИ создают проблемы, способные «фундаментально изменить текущий национальный ландшафт безопасности в ближайшем будущем».

В опубликованной статье на платформе WeChat министерство отметило утечки данных, кибератаки и манипулирование информацией как потенциальные угрозы, а также подчеркнуло влияние этих технологий на экономику и вооруженные силы.

Ранее в текущем году глава ведомства по госбезопасности Чэнь Исинь предостерегал от проблем кибербезопасности, которые могут поставить под угрозу инфраструктуру Китая. В сентябре он также подчеркнул, что технологии, такие как искусственный интеллект, вносят новые и значительные неопределенности в область безопасности и национальной обороны.

Управление искусственным интеллектом стало одним из аспектов сотрудничества между Пекином и Вашингтоном, как было заявлено после саммита Си Цзиньпина и Джо Байдена в Сан-Франциско в среду.

В статье китайское шпионское агентство подчеркнуло риски утечки данных, подчеркивая, что для обучения искусственного интеллекта требуется значительное количество информации, включая конфиденциальные данные. Министерство предупредило о возможных негативных последствиях для частной жизни людей и национальной безопасности в случае неправомерного использования или утечки данных. Агентство также выделило угрозу кибератак, которую могут поддерживать технологии искусственного интеллекта, обосновывая это тем, что хакеры могут легко осуществлять целенаправленные и маскированные атаки на конкретные цели.

В статье также отмечается риск «отравления данных» или внесения вредоносных данных в обучающие данные для искусственного интеллекта. Подчеркивается, что такие действия могут нарушить нормальную функциональность моделей анализа данных, что, в свою очередь, может привести к сбоям в интеллектуальных автомобильных технологиях и даже вызвать аварии.

Ранее сообщалось, что британская разведка протестирует искусственный интеллект на предмет угроз.

# # #

Только главные новости в нашем Telegram, Facebook и GoogleNews!