Час читання: < 1 хв.
За даними мережевих джерел, OpenAI посилила заходи безпеки, щоб уберегти свої розробки від корпоративного шпигунства. Причиною стала поява на початку року китайського стартапу DeepSeek, який випустив значно дешевшу, але цілком конкурентну ШІ-модель. В OpenAI заявили, що DeepSeek міг скопіювати їхню мовну модель, використовуючи метод “дистиляції” – стискання великої моделі до меншої.
Тепер компанія впровадила суворішу політику захисту даних: співробітникам обмежили доступ до конфіденційної інформації та нових розробок. Наприклад, під час роботи над алгоритмом o1 лише перевірені фахівці могли обговорювати проект усередині офісів. Крім того, пропрієтарні технології стали ізольовувати у закритих комп’ютерних системах.
Реклама
Щоб запобігти витокам, OpenAI запровадила біометричний контроль на вході до офісів і обмежила можливість підключатися до внутрішніх мереж ззовні. Також компанія збільшила команду фахівців з кібербезпеки. За словами джерел, такі заходи пов’язані не лише з ризиком іноземного шпигунства, а й із посиленням конкуренції на ринку ШІ в США.