OpenAI ужесточила внутренние протоколы безопасности после серии обвинений в корпоративном шпионаже и попытках неправомерного копирования её разработок. Новый виток ограничений затронул как техническую инфраструктуру компании, так и повседневный рабочий режим сотрудников.
Одним из поводов для пересмотра стратегии безопасности стало появление на рынке китайской конкурирующей модели, которую специалисты связывают с несанкционированным использованием наработок OpenAI. По данным, вызывающим обеспокоенность в индустрии, речь идёт о попытках копирования с применением метода «дистилляции», который позволяет воссоздавать поведенческие характеристики ИИ-модели, не обладая её исходным кодом.
В ответ на это OpenAI внедрила политику «информационного ограничения», ограничивающую доступ сотрудников даже внутри компании. Например, в период разработки новой модели под кодовым названием o1, обсуждение деталей проекта в офисных зонах было разрешено только узкому кругу специалистов, прошедших верификацию и допущенных к конфиденциальной информации.
Кроме того, компания перевела чувствительные технологические процессы на автономные, изолированные машины, полностью отключённые от корпоративной и внешней сетей. Ужесточён биометрический контроль доступа в помещения — теперь вход возможен только после сканирования отпечатков пальцев, а любая попытка выйти в интернет с рабочих устройств требует официального разрешения по политике «отказ по умолчанию».
Физическая охрана дата-центров также усилена. OpenAI активно увеличивает число специалистов в подразделениях, отвечающих за информационную безопасность, включая направление противодействия утечкам и внутренним угрозам.
Новые меры отражают растущие опасения американской технологической отрасли относительно защиты интеллектуальной собственности в условиях глобальной конкуренции. Помимо внешних рисков, OpenAI сталкивается и с внутренними вызовами, связанными с утечкой информации и высокой конкуренцией за кадры на рынке ИИ. Участившиеся несанкционированные публикации заявлений генерального директора Сэма Альтмана, по всей видимости, также ускорили пересмотр протоколов безопасности.
В условиях ускоряющейся гонки искусственного интеллекта, компании усиливают контроль за каждой фазой разработки, рассматривая безопасность не как функцию, а как стратегический приоритет.