O CEO da OpenAI, Sam Altman, não está preocupado com o consumo de recursos cada vez mais evidente da IA, e argumentou que os humanos também requerem muito.
Durante uma entrevista no palco na Cúpula de Impacto da IA na Índia, ele se defendeu após ser questionado sobre as necessidades de água do ChatGPT.
Ele desacreditou as alegações de que o chatbot usa galões de água por consulta como sendo “completamente falsas, totalmente insanas”, de acordo com um clipe postado pelo Indian Express, explicando que os data centers que alimentam o ChatGPT mudaram em grande parte de um resfriamento “evaporativo”, que consome muita água, para evitar o superaquecimento.
Altman foi então questionado sobre a eletricidade necessária para a IA. Em contraste com a questão da água, ele afirmou que era “justo” abordar as exigências energéticas da tecnologia, dizendo: “Precisamos avançar rapidamente para energia nuclear, ou eólica, ou solar.”
Mas ele apontou que comparar as necessidades de energia da IA com as dos humanos não é exatamente uma comparação direta.
“Também leva muita energia para treinar um humano”, disse ele, fazendo com que alguns da plateia rissem. “Leva, tipo, 20 anos de vida e toda a comida que você come durante esse tempo antes de você se tornar inteligente.”
Altman se aprofundou ainda mais, observando que os humanos de hoje não estariam aqui se não fossem seus ancestrais que viveram há centenas de milhares de anos, quando os humanos modernos começaram a surgir.
“Não só isso, mas levou, assim, a evolução muito ampla das 100 bilhões de pessoas que já viveram e aprenderam a não serem comidas por predadores e aprenderam a, tipo, descobrir ciência ou algo assim para produzir você”, acrescentou.
Ao comparar os humanos com o potencial do ChatGPT, é necessário levar este contexto em consideração, argumentou. Uma comparação justa seria medir a energia que um humano usa para responder a uma consulta em relação à IA após já ter sido treinada. Nesse sentido, “provavelmente, a IA já alcançou uma eficiência energética medida dessa forma.”
Em um post de blog de junho de 2025, Altman afirmou que cada consulta do ChatGPT consome cerca de 0,34 watt-horas de eletricidade, ou aproximadamente o que um forno usa em cerca de um segundo. No entanto, ele publicou esse dado antes que a OpenAI lançasse seu mais novo modelo GPT-5 e suas atualizações subsequentes. O consumo de energia também pode variar com base na complexidade de uma consulta: por exemplo, responder a uma pergunta versus criar uma imagem.
Especialistas alertaram que a IA como um todo aumentará significativamente seu consumo cumulativo de energia e água nos próximos 20 anos. No geral, espera-se que o uso de água da IA cresça cerca de 130%, ou aproximadamente 30 trilhões de litros (7,9 trilhões de galões) de água até 2050, de acordo com um relatório de janeiro da empresa de tecnologia hídrica Xylem e da firma de pesquisa de mercado Global Water Intelligence.
Durante o mesmo período, a crescente demanda por eletricidade deve aumentar o uso de água para a geração de energia dos data centers em cerca de 18%, alcançando aproximadamente 22,3 trilhões de litros (5,8 trilhões de galões) por ano. Enquanto isso, os chips cada vez mais complexos que os data centers utilizam necessitarão de mais água durante o processo de fabricação, o que fará com que a quantidade necessária aumente em 600% para 29,3 trilhões de litros (7,7 trilhões de galões) anualmente, a partir dos 4,1 trilhões de litros (1,8 trilhões de galões) atuais.
Embora a OpenAI tenha se afastado do resfriamento evaporativo, 56% de todos os data centers globalmente ainda utilizam esse método de alguma forma, segundo o relatório da Xylem e Global Water Intelligence.
A própria complexo de data center de 800 acres da OpenAI em Abilene, Texas, usará água, embora em um sistema fechado mais eficiente que recircula continuamente a água, conforme relatado pelo Texas Tribune reportou. O data center usará inicialmente 8 milhões de galões de água da cidade de Abilene para encher seu sistema de resfriamento.


