Elon Musk possui uma visão audaciosa sobre a vida com IA: a tecnologia tomará todos os nossos empregos, enquanto uma “renda alta universal” permitirá que todos acessem uma abundância teórica de bens e serviços. Se o sonho ambicioso de Musk estiver ao alcance, certamente haveria uma profunda reflexão existencial.
“A questão realmente será sobre o significado”, disse Musk na conferência Viva Technology, em maio de 2024. “Se um computador puder fazer — e os robôs puderem fazer — tudo melhor do que você… sua vida tem significado?”
No entanto, a maioria dos líderes da indústria não está se questionando sobre o desfecho da IA, de acordo com o laureado com o Nobel e “pai da IA”, Geoffrey Hinton. No desenvolvimento da IA, as grandes empresas de tecnologia estão menos interessadas nas consequências a longo prazo da tecnologia — e mais preocupadas com resultados imediatos.
“Para os donos das empresas, o que está impulsionando a pesquisa são os lucros de curto prazo”, disse Hinton, professor emérito de ciência da computação na Universidade de Toronto, à Fortune.
Para os desenvolvedores da tecnologia, Hinton afirmou que o foco também está nas tarefas imediatas, e não no resultado final da pesquisa em si.
“Os pesquisadores estão interessados em resolver problemas que despertam sua curiosidade. Não começamos com o mesmo objetivo de, qual será o futuro da humanidade?”, disse Hinton.
“Temos essas pequenas metas de como você faria isso? Ou, como você deve fazer seu computador ser capaz de reconhecer coisas em imagens? Como você faria um computador gerar vídeos convincentes?” ele acrescentou. “Isso é realmente o que está impulsionando a pesquisa.”
Hinton sempre alertou sobre os perigos da IA sem regulamentações e evolução intencional, estimando uma chance de 10% a 20% de que a tecnologia possa extinguir os humanos após o desenvolvimento da superinteligência.
Em 2023 — 10 anos após vender sua empresa de redes neurais DNNresearch para o Google — Hinton deixou seu cargo na gigante da tecnologia, querendo falar livremente sobre os perigos da tecnologia e temendo a incapacidade de “prevenir os maus atores de usá-la para coisas ruins.”
Quais são os perigos da IA não regulada?
Para Hinton, os perigos da IA se dividem em duas categorias: o risco que a tecnologia em si representa para o futuro da humanidade e as consequências da manipulação da IA por pessoas com intenções ruins.
“Há uma grande distinção entre dois tipos de risco”, disse ele. “Há o risco de maus atores abusarem da IA, e isso já está acontecendo. Isso já está ocorrendo com coisas como vídeos falsos e ciberataques, e pode acontecer muito em breve com vírus. E isso é muito diferente do risco da IA em si se tornar um mau ator.”
Em novembro de 2025, a Anthropic afirmou ter interrompido “a primeira ocorrência documentada de um ciberataque em larga escala executado sem substancial intervenção humana”, identificando um grupo patrocinado pelo estado chinês que manipulou o Claude Code na tentativa de infiltrar cerca de 30 empresas de tecnologia, instituições financeiras, agências governamentais e fabricantes químicos, afirmou a empresa de IA em um postagem no blog.
A interrupção levou especialistas em segurança cibernética a acreditar que o Irã poderia usar IA para conduzir um ciberataque amplamente automatizado contra os EUA.
Além de advogar por mais regulamentação, o apelo de Hinton para lidar com o potencial de ações indevidas da IA é um desafio árduo, pois cada problema com a tecnologia exige uma solução distinta, disse ele. Ele imagina uma autenticação de proveniência para vídeos e imagens no futuro que combaterá a disseminação de deepfakes.
Assim como as impressoras começaram a adicionar nomes às suas obras após o advento da imprensa há centenas de anos, as fontes de mídia precisarão encontrar uma maneira de adicionar suas assinaturas às suas obras autênticas. Mas Hinton afirma que as soluções podem ter limitações.
“Esse problema pode ser resolvido, mas a solução para esse problema não resolve os outros problemas”, afirmou.
No que diz respeito ao risco que a IA em si representa, Hinton acredita que as empresas de tecnologia devem mudar fundamentalmente sua visão sobre a relação com a IA. Quando a IA atingir a superinteligência, disse ele, não apenas superará as capacidades humanas, mas também terá um forte desejo de sobrevivência e controle adicional. A estrutura atual em torno da IA — que os humanos podem controlar a tecnologia — não será mais relevante.
Hinton propõe que os modelos de IA precisem ser dotados de um “instinto maternal” para que possam tratar os humanos menos poderosos com empatia, ao invés de desejar controlá-los.
Invocando ideais de feminilidade tradicional, ele disse que a única exemplo que pode citar é o de um bebê controlando sua mãe.
“E eu acho que esse é um modelo melhor que poderíamos praticar com a IA superinteligente”, afirmou Hinton. “Eles serão as mães, e nós seremos os bebês.”
Uma versão desta história foi publicada em Fortune.com em 15 de agosto de 2025.


