Китай вводит правила кибербезопасности, касающиеся генеративного ИИ

Китай с 1 января 2024 года вводит новые правила кибербезопасности, направленные на усиление защиты данных и национальной безопасности, уделяя особое внимание генеративному искусственному интеллекту (ИИ).

РФ произвела много ИИ-контента для влияния на выборы в США — разведка

Россия активно использует искусственный интеллект (ИИ) для создания контента, направленного на влияние на выборы президента США. По данным, собранным разведсообществом, Россия лидирует среди иностранных держав

Франция использует экспериментальные инструменты на основе ИИ для наблюдения на Олимпиаде

На Олимпиаде в Париже 2024 года будут использовать системы искусственного интеллекта для наблюдения. Источник: The conversation Правительство и частные компании внедрят передовые технологии для постоянного

Американские компании меняют стратегии кибербезопасности из-за угроз ИИ

Американские компании пересматривают свои стратегии кибербезопасности из-за угроз, связанных с искусственным интеллектом. Источник: Security intelligence Исследование, проведенное совместно с Deep Instinct и Sapio Research, опросило

OpenAI заблокирует доступ Китая к инструментам искусственного интеллекта

OpenAI уведомила китайских разработчиков о планах блокировки доступа к своим инструментам и программному обеспечению с июля. Этот шаг предполагает более жесткую политику компании, запрещающую использование

США добиваются от Японии и Нидерландов сдерживания Китая в разработке технологий ИИ

Высокопоставленный представитель США собирается посетить Японию и Нидерланды, чтобы убедить эти страны усилить ограничения, касающиеся китайского полупроводникового сектора, включая производство чипов памяти с высокой пропускной

ИИ делает пропаганду ИГИЛ более эффективной — СМИ

Сторонники террористической группировки ИГИЛ начали использовать технологии искусственного интеллекта для создания пропагандистских видеороликов, которые, по мнению экспертов, делают их более эффективными. Источник: Meduza В видеороликах

Загрузить ещё