Компания OpenAI усилила меры безопасности и ограничила доступ сотрудников к своим передовым алгоритмам искусственного интеллекта после того, как китайский стартап DeepSeek, по ее данным, скопировал технологию с помощью методов дистилляции. Об этом сообщает Financial Times со ссылкой на источники внутри компании. Источник: FT
В отчете говорится, что OpenAI пересмотрела свои внутренние процессы защиты информации, чтобы минимизировать риски корпоративного шпионажа. В частности, была внедрена политика «информационного тентинга», согласно которой только ограниченное число сотрудников теперь имеют доступ к новым разработкам. Вход в отдельные помещения возможен только после сканирования отпечатков пальцев. Кроме того, усилены меры физической защиты в центрах обработки данных.
Компания также начала применять политику «отклонения по умолчанию» для подключения к интернету — все выходящие соединения теперь запрещены, если только они не разрешены специально. Это направлено на защиту ключевых данных, включая весовые коэффициенты моделей.
Ранее в этом году специалисты по кибербезопасности Microsoft заявили, что структуры, связанные с DeepSeek, выкачивали большое количество данных через API OpenAI. OpenAI подтвердила Financial Times, что действительно обнаружила признаки дистилляции — это метод, при котором одна модель обучается на выходных данных другой, что позволяет копировать ее поведение без доступа к оригинальному коду.
Кроме того, ещё в апреле компания ужесточила правила доступа к своим ИИ-моделям — разработчикам теперь необходимо подтверждать свою личность с помощью государственного удостоверения личности, чтобы получить разрешение на работу с продвинутыми инструментами.
DeepSeek является дочерней структурой китайской компании HighFlyer и ранее вызвала внимание запуском модели рассуждений R1. Она была представлена как открытая и дешёвая альтернатива модели OpenAI o1, что вызвало обеспокоенность в технологическом секторе по поводу роста китайской конкуренции в сфере ИИ.
В ответ на все это OpenAI предпринимает активные шаги для предотвращения утечек и защиты своей интеллектуальной собственности от возможного повторения подобных инцидентов.
Напомним, ранее OpenAI разоблачила использование ИИ в тайных операциях влияния, проводимых Китаем.
Только главные новости в нашем Telegram, Facebook и GoogleNews!
Tweet