NYT: Хакеры похитили данные о технологиях OpenAl

В начале прошлого года произошел инцидент, когда хакер получил доступ к внутренним системам обмена сообщениями в OpenAI, компании, занимающейся разработкой искусственного интеллекта, и украл информацию о разработках этой технологии. Хотя хакер не смог проникнуть в основные системы компании, где разрабатывается и размещается их ИИ, он получил доступ к обсуждениям на онлайн-форуме, где обсуждались новейшие разработки. Источник: NYT

Читайте также: OpenAI заблокирует доступ Китая к инструментам искусственного интеллекта

На общем собрании в офисе OpenAI в Сан-Франциско в апреле 2023 года руководство компании сообщило сотрудникам о случившемся инциденте. Несмотря на это, решено было не делать публичное заявление, так как похищенная информация не касалась клиентов или партнеров, и не считалась угрозой национальной безопасности, поскольку хакер представлялся частным лицом без явных связей с иностранными правительствами.

Некоторые сотрудники OpenAI выразили опасения по поводу того, что иностранные государства, включая Китай, могут заинтересоваться украденными технологиями ИИ. Это вызвало внутренние разногласия по вопросам безопасности и выявило необходимость более строгих мер по защите данных и интеллектуальной собственности компании.

Леопольд Ашенбреннер, бывший исследователь OpenAI, высказал обеспокоенность относительно уровня безопасности компании и ее способности защитить ключевые секреты от иностранных акторов. Он подчеркнул, что несмотря на его предупреждения, его увольнение было связано с другими нарушениями конфиденциальности, не связанными с этим инцидентом.

Несмотря на подобные инциденты, эксперты отмечают, что современные технологии ИИ не представляют значительной угрозы для национальной безопасности на данный момент. Исследования OpenAI, Anthropic и других компаний показывают, что ИИ в настоящее время не более опасен, чем другие передовые технологии, такие как поисковые системы.

Тем не менее, многие руководители и исследователи выражают опасения по поводу потенциала ИИ использоваться для разработки биологического оружия или для кибератак на правительственные системы. В связи с этим OpenAI и Anthropic усиливают меры безопасности и внедряют строгие процедуры контроля, чтобы минимизировать риски, связанные с их разработками.

Недавно OpenAI создала Комитет по безопасности, включив в него Пола Накасоне, бывшего генерала армии, специалиста по кибербезопасности. Это демонстрирует серьезное отношение компании к вопросам безопасности и стремление опережать возможные угрозы, связанные с будущими технологиями.

Законодатели также рассматривают возможность введения ограничений на разработку и использование определенных видов технологий ИИ, чтобы предотвратить их негативное использование. Однако многие эксперты считают, что реальные угрозы могут стать актуальными только через несколько лет или десятилетий.

Китайская разведка и кибервоенные операции стали значительной проблемой для многих технологических компаний в США, включая Microsoft. Президент компании сообщил о широкомасштабных атаках на федеральные сети, организованных китайскими хакерами, что подчеркивает необходимость усиления мер по защите данных и инфраструктуры.

Несмотря на рост конкуренции со стороны Китая, который активно наращивает свои собственные исследовательские и разработочные возможности в области ИИ, американские компании продолжают вести интенсивные усилия в этом направлении. Они утверждают, что открытость и сотрудничество между разработчиками ИИ могут способствовать общему развитию технологий и повышению устойчивости к возможным угрозам.

В заключение, несмотря на вызовы и риски, связанные с развитием технологий ИИ и потенциальной кибербезопасностью, компании и законодатели продолжают активно работать над разработкой эффективных стратегий защиты и регулирования. Это подчеркивает необходимость глубокого понимания и адекватного реагирования на все аспекты быстро развивающегося цифрового ландшафта.

Напомним, ранее OpenAI разоблачила использование ИИ в тайных операциях влияния, проводимых Китаем.

# # #

Только главные новости в нашем Telegram, Facebook и GoogleNews!