A OpenAI acredita que finalmente se destacou em uma das corridas mais acompanhadas da inteligência artificial: a programação com suporte de IA. Seu mais recente modelo, GPT-5.3-Codex, representa um avanço significativo em relação aos sistemas concorrentes, mostrando desempenho consistentemente superior em benchmarks de programação e resultados relatados em comparação com gerações anteriores dos modelos da OpenAI e da Anthropic—sugerindo uma vantagem há muito esperada em uma categoria que pode transformar a forma como o software é desenvolvido.
No entanto, a empresa está lançando o modelo com controles excepcionalmente rigorosos e atrasando o acesso total para desenvolvedores enquanto confronta uma realidade mais difícil: as mesmas capacidades que tornam o GPT-5.3-Codex tão eficaz na escrita, teste e raciocínio sobre código também levantam sérias preocupações em relação à cibersegurança. Na corrida para desenvolver o modelo de programação mais poderoso, a OpenAI se depara com os riscos de sua liberação.
O GPT-5.3-Codex está disponível para usuários pagos do ChatGPT, que podem utilizar o modelo para tarefas cotidianas de desenvolvimento de software, como escrever, depurar e testar código, através das ferramentas Codex e da interface do ChatGPT da OpenAI. Mas, por enquanto, a empresa não está abrindo o acesso irrestrito para aplicações sensíveis de cibersegurança, e a OpenAI não está imediatamente permitindo acesso total à API que possibilitaria a automação do modelo em larga escala. Essas aplicações mais sensíveis estão sendo submetidas a salvaguardas adicionais, incluindo um novo programa de acesso confiável para profissionais de segurança aprovados, refletindo a visão da OpenAI de que o modelo cruzou um novo limiar de risco cibernético.
O post no blog da empresa que acompanha o lançamento do modelo na quinta-feira afirmou que, embora não tenha “evidências definitivas” de que o novo modelo pode automatizar completamente os ciberataques, “estamos adotando uma abordagem cautelar e implantando nossa pilha de segurança cibernética mais abrangente até hoje. Nossas mitig ações incluem treinamento de segurança, monitoramento automatizado, acesso confiável para capacidades avançadas e estruturas de aplicação, incluindo inteligência sobre ameaças.”
O CEO da OpenAI, Sam Altman, postou sobre as preocupações na X, dizendo que o GPT-5.3-Codex é “nosso primeiro modelo que atinge ‘alto’ em nossa estrutura de prontidão para cibersegurança,” um sistema interno de classificação de riscos que a OpenAI utiliza para lançamentos de modelos. Em outras palavras, este é o primeiro modelo que a OpenAI acredita ser suficientemente competente em programação e raciocínio para que possa possibilitar danos reais no mundo cibernético, especialmente se automatizado ou utilizado em larga escala.







