A crescente ameaça de Espionagem chinesa Não teria passado despercebido aos olhos de Sam Altman e Openai. Conforme relatado Times financeirosa empresa reforçou a segurança de seus escritórios e data centers e também começou a restringir o acesso às suas tecnologias mais sensíveis, a fim de evitar o roubo de informações secretas. A empresa procuraria evitar novos episódios, como Deepseek No início deste ano.
O meio mencionado acima indica que, nos últimos tempos, o OpenAI começou a tomar medidas mais agressivas ligadas à segurança. Entre eles, a contratação de mais pessoal e a implementação de mais diretrizes e práticas que estão ligadas à referida área. Isso não apenas abrange a “fortificação” das instalações, mas também a adoção de mais camadas de proteção no campo da segurança cibernética.
No que diz respeito às medidas de segurança da construção, indica -se que o OpenAI aumentou os controles de segurança em seus data centers. Enquanto em seus escritórios de São Francisco, eles foram implementados Leitores de impressão digital Na renda, bloqueando o acesso a certos setores a pessoas que não têm autorização para fazê -lo.
Por outro lado, os de Sam Altman reforçaram medidas de proteção para seus algoritmos e outras tecnologias proprietárias e confidenciais. Agora mantenha -os em ambientes isoladosem sistemas desconectados da rede e de outros servidores, e com uma política estrita que os impede de se conectar à Internet, a menos que uma aprovação explícita seja concedida.
Openai reforça sua segurança para evitar um novo Deepseek

Mas as novas medidas de segurança reforçadas do OpenAI para combater a espionagem chinesa vão além. A empresa também começou a segmentar o acesso de seus funcionários aos desenvolvimentos mais sensíveis. Para que apenas os envolvidos em um projeto específico possam acessar isso e conhecer seus detalhes minuciosamente.
De acordo com Ftos de Sam Altman até instruíram seus funcionários a não falar sobre aspectos sensíveis de seu trabalho com seus parceiros do escritório, a menos que tenham a certeza absoluta de que também têm acesso às mesmas informações.
A isso acrescenta que o OpenAI teria endurecido seu processo de contratação de novos funcionários. A empresa agora seria mais rigoroso Ao rejeitar os candidatos em potencial para ingressar em seus funcionários, pelo crescente medo de infiltração de agentes disfarçados que podem roubar segredos e filtrá -los a empresas ou países de adversário.
A grande questão é por que os criadores do ChatGPT começaram a se preocupar mais com a segurança nos últimos tempos. E a resposta parece ser apenas uma: A ascensão de Deepseek que cambaleou a indústria no início de 2025.
Espionagem chinesa, sob os holofotes
Lembre -se de que a China monopolizou as manchetes sob a premissa de que era possível criar modelos de idiomas extremamente capazes, mas por uma fração do preço do OpenAI ou com um hardware muito menos poderoso do que o da Nvidia. No entanto, da Casa Branca, eles disseram que havia evidências de que Deepseek supostamente havia acessado a tecnologia da empresa californiana sem autorização.
“Há evidências substanciais de que o que a DePseek fez aqui foi extrair o conhecimento dos modelos Openai. E acho que uma das coisas que eles verão nos próximos meses é que nossas principais empresas tomarão medidas para tentar evitar a extração, o que definitivamente diminuiria alguns desses imitadores”, disse David Sacks, Spokesman para o governo Trump na questão da IA e da Cryptocurncy.
A extração do conhecimento de um modelo para transferi -los para outro é chamada de “destilação” e viola os termos de uso da API OpenAI. A startup e a Microsoft analisaram contas de desenvolvedor vinculadas ao Depseek e encontraram traços desse tipo de prática. Por esse motivo, eles os suspenderam e bloquearam o acesso à sua tecnologia. Logo depois, os de Sam Altman enviaram uma proposta ao governo dos EUA para proibir Deepseek e outros desenvolvidos na China com o suposto apoio ao Partido Comunista Chinês.