Компания OpenAI значительно усилила внутренние меры безопасности, стремясь защититься от промышленного шпионажа и утечек интеллектуальной собственности. По информации Financial Times, толчком к таким действиям стало появление китайского стартапа DeepSeek, представившего в январе конкурентную модель, якобы созданную с использованием техник «дистилляции» — метода, позволяющего копировать архитектуру ИИ-систем.
В ответ на это OpenAI запустила масштабную модернизацию протоколов безопасности. Среди новых мер — ограничение доступа сотрудников к ключевым алгоритмам и продуктам, изоляция разработок на автономных офлайн-серверах и внедрение биометрических систем допуска в офисные помещения.
Во время работы над моделью o1 только определённые участники проекта могли обсуждать его, причём исключительно в специально выделенных зонах.
Компания также перешла на политику «отказ по умолчанию» для интернет-доступа, требующую отдельного одобрения для подключения к внешним сетям. Кроме того, усилен физический контроль в дата-центрах, а команда специалистов по кибербезопасности значительно расширена.
Такие меры связаны не только с опасениями по поводу вмешательства иностранных государств, но и с внутренними угрозами — утечками информации и переманиванием сотрудников конкурентами на фоне напряжённой борьбы между американскими ИИ-компаниями.
Источник: TechCrunch