Bem-vindo ao Eye on AI, com a repórter de IA Sharon Goldman. Nesta edição: O lado selvagem do OpenClaw… O novo super PAC de $20 milhões da Anthropic contra a OpenAI… OpenAI lança seu primeiro modelo projetado para saída super-rápida… A Anthropic cobrirá aumentos nos preços de eletricidade de seus data centers de IA… A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold.
Nas últimas semanas, o OpenClaw tem demonstrado quão imprudentes podem ser os agentes de IA — e atraído um público dedicado no processo.
O agente de inteligência artificial autônomo, gratuito e de código aberto, desenvolvido por Peter Steinberger e inicialmente conhecido como ClawdBot, leva os chatbots que conhecemos e amamos — como ChatGPT e Claude — e oferece a eles ferramentas e autonomia para interagir diretamente com seu computador e com outros na internet. Pense em enviar e-mails, ler suas mensagens, comprar ingressos para um show, fazer reservas em restaurantes, e muito mais — presumivelmente enquanto você relaxa e aprecia bons momentos.
O problema de dar ao OpenClaw um poder extraordinário para realizar coisas interessantes? Não é surpreendente, é o fato de que isso também cria várias oportunidades para fazer coisas que não deveria, incluindo vazamento de dados, execução de comandos indesejados ou até mesmo ser sequestrado por atacantes, seja por meio de malware ou por “ataques de injeção de prompt.” (Onde alguém inclui instruções maliciosas para o agente de IA em dados que um agente de IA pode usar.)
O entusiasmo sobre o OpenClaw, afirmam dois especialistas em cibersegurança com quem conversei esta semana, está no fato de que ele não tem restrições, basicamente dando aos usuários um poder quase irrestrito para personalizá-lo como quiserem.
“A única regra é que não há regras,” disse Ben Seri, cofundador e CTO da Zafran Security, que se especializa em gerenciamento de exposição a ameaças para empresas. “Essa é a essência do jogo.” Mas esse jogo pode se transformar em um pesadelo de segurança, uma vez que regras e limites são fundamentais para manter hackers e vazamentos sob controle.
Preocupações clássicas de segurança
As preocupações de segurança são preocupações clássicas, disse Colin Shea-Blymyer, pesquisador da Georgetown’s Center for Security and Emerging Technology (CSET), onde ele trabalha no CyberAI Project. A configuração inadequada de permissões — quem ou o que pode fazer o quê — significa que os humanos podem acidentalmente fornecer ao OpenClaw mais autoridade do que imaginam, e atacantes podem explorar isso.
Por exemplo, no OpenClaw, grande parte do risco vem do que os desenvolvedores chamam de “habilidades,” que são essencialmente aplicativos ou plugins que o agente de IA pode usar para tomar ações — como acessar arquivos, navegar na web ou executar comandos. A diferença é que, ao contrário de um aplicativo comum, o OpenClaw decide por conta própria quando usar essas habilidades e como encadeá-las, o que significa que um pequeno erro de permissão pode rapidamente se transformar em algo muito mais sério.
“Imagine usá-lo para acessar a página de reservas de um restaurante e ele também tenha acesso ao seu calendário, com toda sorte de informações pessoais,” disse ele. “Ou e se for malware, e ele encontre a página errada e instale um vírus?”
O OpenClaw tem páginas de segurança em sua documentação e está tentando manter os usuários alertas e informados, disse Shea-Blymyer. No entanto, os problemas de segurança permanecem complexos, e a maioria dos usuários comuns provavelmente não compreenderá totalmente. E enquanto os desenvolvedores do OpenClaw podem trabalhar arduamente para corrigir vulnerabilidades, eles não podem resolver facilmente a questão subjacente de o agente ser capaz de agir por conta própria — que é o que torna o sistema tão atraente em primeiro lugar.
“Essa é a tensão fundamental nesses tipos de sistemas,” disse ele. “Quanto mais acesso você lhes dá, mais divertidos e interessantes eles se tornam — mas também mais perigosos.”
Adoção lenta por empresas
Ben Seri, da Zafran Security, admitiu que é pouco provável que a curiosidade dos usuários seja reprimida quando se trata de um sistema como o OpenClaw, embora ele tenha enfatizado que as empresas serão muito mais lentas para adotar um sistema tão incontrolável e inseguro. Para o usuário comum, ele disse, deve-se experimentar como se estivesse trabalhando em um laboratório químico com um material altamente explosivo.
Shea-Blymyer apontou que é positivo que o OpenClaw esteja ocorrendo primeiro no nível de entusiastas. “Aprenderemos muito sobre o ecossistema antes que alguém tente em um nível corporativo,” disse ele. “Sistemas de IA podem falhar de maneiras que não podemos nem imaginar,” explicou. “[OpenClaw] pode nos fornecer muitas informações sobre por que diferentes LLMs se comportam da maneira como se comportam e sobre novas preocupações de segurança.”
Mas, enquanto o OpenClaw pode ser um experimento para entusiastas hoje, especialistas em segurança o veem como uma prévia dos tipos de sistemas autônomos que as empresas eventualmente sentirão pressão para implantar.
No momento, a menos que alguém queira se tornar o sujeito de pesquisa de segurança, o usuário médio pode querer evitar o OpenClaw, disse Shea-Blymyer. Caso contrário, não se surpreenda se seu assistente de IA particular vagar para territórios muito hostis.
Com isso, aqui estão mais notícias sobre IA.
Sharon Goldman
sharon.goldman@fortune.com
@sharongoldman
FORTUNE SOBRE IA
O blog viral de Matt Shumer sobre o impacto iminente da IA sobre trabalhadores do conhecimento se baseia em suposições falhas – de Jeremy Kahn
O CEO da Capgemini tem um aviso. Você pode estar pensando sobre IA de forma errada – de Kamal Ahmed
O líder da Google em IA, vencedor do Nobel, prevê um ‘renascimento’ à frente—após uma queda de 10 ou 15 anos – de Nick Lichtenberg
X-odus: Metade da equipe fundadora da xAI deixou a empresa de IA de Elon Musk, potencialmente complicando seus planos para um IPO blockbuster da SpaceX – de Beatrice Nolan
A OpenAI contesta a alegação de watchdog de que violou a nova lei de segurança de IA da Califórnia com o lançamento do último modelo – de Beatrice Nolan
IA NAS NOTÍCIAS
No novo super PAC de $20 milhões, a Anthropic contra a OpenAI. Segundo o New York Times, a Anthropic prometeu $20 milhões para uma operação de super PAC destinada a apoiar candidatos que favorecem uma segurança e regulamentação de IA mais robustas, criando um embate direto antes das eleições de meio de mandato. O financiamento fluirá por meio da organização sem fins lucrativos Public First Action, e PACs aliados, em oposição ao Leading the Future, um super PAC apoiado principalmente pelo presidente e cofundador da OpenAI, Greg Brockman, e pela firma de capital de risco Andreessen Horowitz. Embora a Anthropic tenha evitado mencionar a OpenAI diretamente, alertou que “recursos vastos” estão sendo utilizados para se opor aos esforços de segurança em IA, destacando uma divisão crescente dentro da indústria de IA sobre quão rígidos os modelos poderosos devem ser regulamentados — e sinalizando que a batalha pela governança da IA agora está se desenrolando não apenas em laboratórios e salas de reunião, mas também nas urnas.
Mustafa Suleyman planeja ‘autossuficiência’ em IA à medida que a Microsoft afrouxa laços com a OpenAI. O Financial Times reportou que a Microsoft está avançando em direção ao que seu chefe de IA, Mustafa Suleyman, chama de “verdadeira autossuficiência” em inteligência artificial, acelerando esforços para construir seus próprios modelos fundamentais e reduzir a dependência a longo prazo da OpenAI, mesmo enquanto continua sendo um dos maiores apoiadores da startup. Em uma entrevista, Suleyman disse que a mudança segue uma reestruturação da relação da Microsoft com a OpenAI em outubro passado, que preservou o acesso aos modelos mais avançados da OpenAI até 2032, mas também deu ao criador do ChatGPT mais liberdade para buscar novos investidores e parceiros — potencialmente tornando-o um concorrente. A Microsoft agora está investindo pesadamente em computação em escala de gigawatt, pipelines de dados e equipes de pesquisa em IA de elite, com planos de lançar seus próprios modelos internos ainda este ano, voltados especificamente para automatizar trabalhos de colarinho branco e capturar mais do mercado corporativo com o que Suleyman chama de “AGI profissional de grau”.
OpenAI lança seu primeiro modelo projetado para saída super-rápida. A OpenAI lançou uma prévia de pesquisa do GPT-5.3-Codex-Spark, o primeiro produto tangível de sua parceria com a Cerebras, usando o hardware de IA em escala de wafer do fabricante de chips para fornecer codificação em tempo real com ultra-baixa latência no Codex. O modelo menor, uma versão simplificada do GPT-5.3-Codex, é otimizado para velocidade em vez de capacidade máxima, gerando respostas até 15 vezes mais rápidas, permitindo que os desenvolvedores façam edições direcionadas, remodelam a lógica e iterem de forma interativa sem ter que esperar por longos períodos de execução. Disponível inicialmente como uma prévia de pesquisa para usuários do ChatGPT Pro e um pequeno conjunto de parceiros de API, o lançamento sinaliza o foco crescente da OpenAI na velocidade de interação à medida que os agentes de IA assumem tarefas mais autônomas e de longa duração — com a codificação em tempo real emergindo como um caso de teste inicial para o que a inferência mais rápida pode desbloquear.
A Anthropic cobrirá aumentos nos preços de eletricidade de seus data centers de IA. Após um anúncio semelhante da OpenAI no mês passado, a Anthropic anunciou ontem que, enquanto expande seus data centers de IA nos EUA, assumirá a responsabilidade por quaisquer aumentos nos custos de eletricidade que poderiam ser repassados aos consumidores, prometendo pagar todos os custos de conexão com a rede e melhorias, trazendo nova geração de energia online para corresponder à demanda, e colaborando com concessionárias e especialistas para estimar e cobrir quaisquer efeitos sobre os preços; também planeja investir em tecnologias de redução de uso de energia e otimização de rede, apoiar comunidades locais ao redor de suas instalações e advogar por reformas políticas mais abrangentes para acelerar e reduzir o custo do desenvolvimento da infraestrutura de energia, argumentando que a construção de infraestrutura de IA não deve onerar os consumidores comuns.
A Isomorphic Labs afirma ter desbloqueado uma nova fronteira biológica além do AlphaFold. A Isomorphic Labs, a empresa de descoberta de medicamentos de IA afiliada à Alphabet e à DeepMind, afirma que seu novo Motor de Design de Medicamentos da Isomorphic Labs representa um avanço significativo na medicina computacional ao combinar múltiplos modelos de IA em um motor unificado que pode prever como moléculas biológicas interagem com uma precisão sem precedentes. Um post no blog disse que ele mais que dobrou o desempenho anterior em métricas-chave e superou métodos tradicionais baseados em física para tarefas como previsão de estrutura proteína-ligante e estimativa da afinidade de ligação — capacidades que a empresa argumenta podem acelerar dramaticamente como novos candidatos a medicamentos são projetados e otimizados. O sistema se baseia no sucesso do AlphaFold 3, um modelo avançado de IA lançado em 2024 que prevê as estruturas 3D e interações de todas as moléculas da vida, incluindo proteínas, DNA e RNA. Mas a empresa afirma que vai além, identificando novos locais de ligação, generalizando para estruturas fora de seus dados de treinamento, e integrando essas previsões em uma plataforma escalável que visa preencher a lacuna entre biologia estrutural e descoberta de medicamentos no mundo real, possivelmente remodelando a forma como a pesquisa farmacêutica aborda alvos difíceis e se expande para biológicos complexos.
NÚMEROS DO EYE ON AI
77%
Esse é o percentual de profissionais de segurança que relatam pelo menos algum conforto em permitir que sistemas autônomos de IA atuem sem supervisão humana, embora ainda permaneçam cautelosos, de acordo com uma nova pesquisa de 1.200 profissionais de segurança da Ivanti, uma empresa global de software de segurança e TI empresarial. Além disso, o relatório constatou que a adoção de IA agentes é uma prioridade para 87% das equipes de segurança.
No entanto, o diretor de segurança da Ivanti, Daniel Spicer, afirma que as equipes de segurança não deveriam estar tão confortáveis com a ideia de implantar IA autônoma. Embora defensores estejam otimistas quanto à promessa da IA em cibersegurança, as descobertas também mostram que as empresas estão ficando cada vez mais para trás em termos de quão bem preparadas estão para defender contra uma variedade de ameaças.
“Isso é o que eu chamo de ‘Déficit de Preparação em Cibersegurança’,” escreveu em um post no blog, “um desequilíbrio persistente, ano após ano, na capacidade de uma organização de defender seus dados, pessoas e redes contra a evolução do cenário tecnológico.”
CALENDÁRIO DE IA
10-11 de fevereiro:AI Action Summit, Nova Délhi, Índia.
24-26 de fevereiro:Associação Internacional para IA Segura & Ética (IASEAI), UNESCO, Paris, França.
2-5 de março:Mobile World Congress, Barcelona, Espanha.
16-19 de março:Nvidia GTC, San Jose, Calif.
6-9 de abril:HumanX, São Francisco.






