À medida que a inteligência artificial generativa se espalha rapidamente pelas organizações, os executivos enfrentam uma pergunta aparentemente simples: Como os seres humanos devem trabalhar com a IA? A resposta comum—”manter os humanos no loop”—pode parecer tranquilizadora.
No entanto, novas pesquisas revelam que essa resposta é perigosamente incompleta. O que se apresenta como a mesma abordagem de “humano no loop” na verdade se manifesta de três maneiras radicalmente diferentes, com implicações profundamente distintas para o desempenho e o desenvolvimento de habilidades.
Para entender como as empresas podem realmente extrair valor da colaboração entre humanos e IA, realizamos umexperimento de campo com 244 consultores utilizando o GPT-4 para resolver um problema complexo de negócios. Com o apoio de acadêmicos da Harvard Business School, da MIT Sloan School of Management, da Wharton School e da Warwick Business School, o experimento analisou quase 5.000 interações entre humanos e IA para responder a uma pergunta crítica: Quando os humanos colaboram com GenAI, o que estão realmente fazendo—e o que deveriam fazer?
Três padrões ocultos de colaboração entre humanos e IA
A descoberta mais surpreendente do nosso experimento é que os profissionais que trabalharam com GenAI naturalmente se classificaram em três estilos distintos de colaboração—cada um com resultados dramaticamente diferentes:
Ciborgues (60% dos participantes) se engajaram no que chamamos de “Co-Criação de Conhecimento Fundida”—um diálogo contínuo e iterativo com a IA ao longo de todo o fluxo de trabalho. Eles a utilizaram para cada subtarefa e de maneiras variadas: atribuíram personas à IA, dividiram tarefas complexas em módulos, questionaram as saídas da IA, expuseram contradições e validaram resultados em um vaivém dinâmico. Para os Ciborgues, a fronteira entre o pensamento humano e o da IA tornou-se deliberadamente confusa.
Centaurs (14% dos participantes) praticaram a “Co-Criação de Conhecimento Dirigida”—usando a IA de forma seletiva para subtarefas específicas enquanto mantinham controle firme sobre todo o processo de resolução de problemas. Eles aproveitaram a IA para ampliar suas capacidades, mapear domínios problemáticos, reunir informações metodológicas e refinar seu próprio conteúdo gerado por humanos. Mas mantiveram o controle firmemente nas mãos, usando a IA como uma ferramenta direcionada, não como um parceiro colaborativo.
Auto-Automatizadores (27% dos participantes) se envolveram na “Co-Criação de Conhecimento Abdicada”—delegando fluxos de trabalho inteiros à IA com pouca iteração ou engajamento crítico. Eles forneceram dados e instruções à IA para que executasse as subtarefas, aceitando suas saídas sem modificações ou com apenas pequenas edições. O trabalho deles era rápido e polido, mas carecia de profundidade—lembrando saídas completadas para eles, em vez de com eles.
O que é notável é que todos os participantes tiveram acesso às mesmas ferramentas e à mesma tarefa. Eles não receberam instruções diferentes sobre o processo de trabalho com a IA. No entanto, suas escolhas emergentes/instintivas sobre quando envolver a IA e quanto poder conceder a ela produziram dinâmicas de colaboração fundamentalmente diferentes.
Um modelo para entender a colaboração
Para fazer sentido desses padrões, desenvolvemos um modelo construído em torno de duas perguntas fundamentais que estruturam qualquer dinâmica de resolução colaborativa de problemas entre humanos e máquinas: Quem seleciona o que precisa ser feito? e Quem identifica como isso será feito?
Os Ciborgues permitem que os humanos conduzam o “o que”, mas concedem à IA controle significativo sobre “como”. Os Centaurs mantêm o controle humano e a liderança sobre ambas as dimensões, utilizando a IA apenas para assistência direcionada. Os Auto-Automatizadores cedem o controle de ambos à IA. Notavelmente, a quarta possibilidade teórica—onde a IA dirige a seleção de tarefas, mas os humanos dirigem a execução—permanecia vazia em nosso estudo; quando os profissionais abandonam o controle sobre o que trabalhar, tendem a abdicar também do controle sobre como fazê-lo.
O custo oculto: O que acontece com a expertise?
Talvez nossa descoberta mais consequente diga respeito ao que ocorre com a expertise profissional sob cada modo de colaboração. As implicações divergem dramaticamente:
Ciborgues desenvolveram uma nova expertise relacionada à IA—o que chamamos de “nova qualificação”. Através de experimentação contínua com estratégias de solicitação, aprenderam a se comunicar eficazmente com a IA, quando questionar, e como extrair o máximo valor da colaboração. Eles também mantiveram sua expertise no domínio ao se manterem envolvidos ativamente ao longo do processo.
Centaurs aprofundaram sua expertise no domínio—a tradicional “qualificação”. Ao usar a IA para acelerar o aprendizado sobre indústrias desconhecidas, reunir orientações metodológicas e refinar seu próprio pensamento, construíram capacidades mais fortes. No entanto, não desenvolveram uma expertise significativa relacionada à IA, pois suas interações com a IA foram limitadas e direcionadas.
Auto-Automatizadores não desenvolveram nenhuma—passando pelo que chamamos de “nenhuma qualificação”. Ao delegar todo o processo cognitivo à IA, perderam oportunidades para construir tanto conhecimento no domínio quanto fluência em IA. Seus ganhos de produtividade vieram às custas do desenvolvimento profissional.
Essa descoberta deve fazer os executivos pararem para refletir. Quando os empregados adotam como padrão o comportamento de Auto-Automatizadores—que mais de um quarto de nossos consultores altamente treinados fizeram—as organizações podem, inadvertidamente, estar esvaziando a própria expertise que cria vantagem competitiva.
Implicações de desempenho: Quem acerta?
Nosso experimento avaliou as saídas em duas dimensões: precisão (eles recomendaram a marca correta?) e persuasão (quão convincente era o memorando do CEO?). Os resultados desafiam suposições simplistas sobre a colaboração com IA:
Centaurs alcançaram a maior precisão—superando tanto os Ciborgues quanto os Auto-Automatizadores em acertar a resposta correta. Ao manter controle sobre o processo analítico e usar seu próprio julgamento para avaliar as entradas da IA, eles evitaram serem influenciados pelas recomendações confiantes, mas às vezes incorretas, da IA.
Ambos, Ciborgues e Centaurs, se destacaram em persuasão—produzindo saídas mais convincentes do que os Auto-Automatizadores. A profundidade do envolvimento, seja por meio de refinamento iterativo (Ciborgues) ou análise dirigida por humanos (Centaurs), se traduziu em entregáveis de maior qualidade.
Notavelmente, os Ciborgues às vezes caíram na armadilha da persuasão da IA. Mesmo quando empregaram boas práticas como validação—pedindo à IA que verificasse seu próprio trabalho—eles foram algumas vezes convencidos pela justificação confiante da IA a partir de respostas incorretas. Isso destaca um risco crítico: um engajamento sofisticado com a IA não garante imunidade a seus erros.
O que as empresas devem fazer imediatamente?
Essas descobertas têm implicações imediatas para como as organizações implantam a GenAI:
Primeiro, abandone o mito de uma única abordagem de “humano no loop”. Os executivos devem reconhecer que seus funcionários já estão adotando estilos de colaboração dramaticamente diferentes—e que essas diferenças importam. Simplesmente exigir “supervisão humana” sem especificar o que isso significa resultará em resultados extremamente inconsistentes.
Segundo, alinhe estilos de colaboração aos objetivos estratégicos. Para tarefas que exigem máxima precisão em decisões de alto risco, incentive o comportamento Centaur—uso seletivo da IA com forte julgamento humano. Para tarefas que exigem iteração rápida e exploração criativa, o comportamento Ciborgue pode ser mais apropriado. Reserve as abordagens de Auto-Automatização para tarefas verdadeiramente rotineiras, e não para as centrais ou arriscadas, e onde o desenvolvimento de habilidades não é uma preocupação.
Terceiro, monitore a complacência da automação. A taxa de 27% de Auto-Automatizadores em nosso estudo—entre profissionais altamente qualificados e motivados que sabiam que seu desempenho estava sendo avaliado—sugere que a tentação de se delegar excessivamente é poderosa. As organizações devem desenvolver mecanismos para detectar quando os funcionários estão começando a se afastar da automação completa em tarefas que requerem envolvimento humano.
Quarto, repense como você mede o sucesso da adoção da IA. Usar apenas resultados finais—como taxas de edição ou razões de aceitação—como proxies para engajamento é insuficiente. Um Auto-Automatizador que aceita uma saída da IA e um Ciborgue que itera extensivamente e depois aceita uma versão refinada podem parecer idênticos nos dados. As empresas precisam acompanhar a qualidade da interação ao longo de todo o fluxo de trabalho, não apenas o resultado.
Quinto, invista no desenvolvimento de fluência em IA juntamente com expertise em domínio. Nossas descobertas sugerem que a abordagem mais sustentável combina ambas. O comportamento Ciborgue constrói habilidades avançadas em IA enquanto mantém o conhecimento do domínio; o comportamento Centaur constrói habilidades no domínio enquanto fornece exposição básica à IA. As empresas precisam de programas de treinamento que desenvolvam ambas as capacidades intencionalmente, ao invés de esperar que os funcionários descubram isso sozinhos.
As consequências: Expertise na Era da IA
A emergência da GenAI apresenta às organizações um paradoxo. A tecnologia promete elevar o julgamento humano, a criatividade e a velocidade, mas também carrega um risco mais sutil: que ao delegarem mais pensamento às máquinas, os profissionais podem lentamente abrir mão das próprias capacidades que os tornam valiosos. As mesmas ferramentas que aprimoram a expertise em algumas mãos podem, em outras, substituí-la totalmente, deixando as organizações com resultados impressionantes a curto prazo, mas um núcleo humano de julgamento cada vez mais escasso. Isso não é apenas mais uma ferramenta de eficiência, é uma revolução. A boa notícia é que modos de colaboração produtivos existem. Ciborgues e Centaurs demonstram que os humanos podem trabalhar efetivamente com a IA enquanto constroem, em vez de esgotar, sua expertise. O desafio para os executivos é criar condições organizacionais que incentivem esses padrões produtivos enquanto desencorajam o caminho sedutor, mas autossabotador, da automação total.
À medida que as capacidades da IA continuam a expandir e melhorar, as organizações que prosperarem serão aquelas que dominarem não apenas o que a IA pode fazer, mas como os humanos devem trabalhar com ela. Compreender que “humano no loop” não é uma única abordagem, mas na verdade três modos de colaboração fundamentalmente diferentes—com consequências fundamentalmente distintas—é o primeiro passo para construir essa maestria.
François Candelon é sócio da firma de private equity Seven2 e fellow executivo do D^3 Institute em Harvard. Leiaoutrascolunas de Fortune por François Candelon.
Katherine Kellogg é professora titular de Gestão e Inovação na MIT Sloan School of Management.
Hila Lifshitz é professora de gestão na Warwick Business School, associada ao corpo docente do Harvard Laboratory for Innovation Science e co-diretora da AI Innovation Network.
Steven Randazzo é estudante de doutorado na Warwick Business School, pesquisador visitante no Harvard Laboratory for Innovation Science e co-diretor da AI Innovation Network.






