Sistemas de recomendação personalizados que organizam conteúdos em plataformas como o YouTube podem interferir na forma como as pessoas aprendem, de acordo com uma nova pesquisa. O estudo revelou que, quando um algoritmo determinava quais informações apareciam durante uma tarefa de aprendizado, os participantes que não tinham conhecimento prévio sobre o tema tendiam a focar apenas em uma pequena parte do que lhes foi apresentado.
Por causa da exploração limitada do material disponível, esses participantes frequentemente erravam nas questões em testes posteriores. Apesar dos erros, mostraram um alto nível de confiança em suas respostas.
Esses resultados geram preocupações, conforme destacado por Giwon Bahg, que realizou o trabalho como parte de sua dissertação de doutorado em psicologia na Universidade Estadual de Ohio.
Algoritmos Podem Criar Viés Mesmo Sem Conhecimento Prévio
A maior parte da pesquisa existente sobre algoritmos personalizados investiga como eles influenciam opiniões sobre política ou questões sociais que as pessoas já conhecem, pelo menos, de modo superficial.
“Mas nosso estudo mostra que mesmo quando você não sabe nada sobre um tópico, esses algoritmos podem começar a criar viés imediatamente e levar a uma visão distorcida da realidade,” afirmou Bahg, atualmente pós-doutorando na Universidade Estadual da Pensilvânia.
Os achados foram publicados no Journal of Experimental Psychology: General.
Brandon Turner, coautor do estudo e professor de psicologia na Ohio State, comentou que os resultados indicam que as pessoas podem rapidamente pegar as informações limitadas fornecidas pelos algoritmos e tirar conclusões amplas, muitas vezes infundadas.
“As pessoas perdem informações ao seguirem um algoritmo, mas pensam que o que sabem se generaliza para outras características e partes do ambiente que nunca vivenciaram,” disse Turner.
Um Exemplo de Recomendação de Filmes
Para demonstrar como esse viés pode surgir, os pesquisadores descreveram um cenário simples: uma pessoa que nunca assistiu a filmes de um determinado país decide experimentar alguns. Um serviço de streaming sob demanda oferece recomendações.
O espectador escolhe um thriller de ação porque aparece no topo da lista. O algoritmo então promove mais thrillers de ação, que o espectador continua a selecionar.
“Se o objetivo dessa pessoa, seja explícito ou implícito, era realmente entender a paisagem geral dos filmes desse país, a recomendação algorítmica acaba distorcendo seriamente a compreensão,” escreveram os autores.
Ao ver apenas um gênero, a pessoa pode ignorar filmes importantes em outras categorias. Além disso, pode formar suposições imprecisas e exageradas sobre a cultura ou a sociedade representada nesses filmes, apontaram os autores.
Analisando os Efeitos do Algoritmo com Criaturas Fictícias
Bahg e sua equipe de pesquisa examinaram essa ideia experimentalmente com 346 participantes online. Para garantir que ninguém trouxesse conhecimento prévio, os pesquisadores utilizaram uma tarefa de aprendizado completamente fictícia.
Os participantes estudaram vários tipos de alienígenas em forma de cristal, cada um definido por seis características que variavam entre as categorias. Por exemplo, uma parte quadrada do alienígena poderia ser de um preto intenso em alguns tipos e cinza claro em outros.
O objetivo era aprender a identificar cada tipo de alienígena sem saber quantos tipos existiam.
Como o Algoritmo Guiou o Aprendizado
No experimento, as características dos alienígenas estavam ocultas atrás de caixas cinzas. Em uma condição, os participantes precisavam clicar em todas as características para ver um conjunto completo de informações para cada alienígena.
Em outra condição, os participantes escolhiam quais características examinar, e um algoritmo de personalização selecionava quais itens eles provavelmente amostrariam com mais frequência. Esse algoritmo os direcionou a examinarem repetidamente as mesmas características ao longo do tempo. Eles ainda podiam olhar para qualquer característica que quisessem, mas também poderiam ignorar outras completamente.
Os resultados mostraram que aqueles guiados pelo algoritmo personalizado visualizaram menos características no total e o fizeram de maneira padronizada e seletiva. Quando foram posteriormente testados com novos exemplos de alienígenas que nunca tinham visto antes, frequentemente os classificaram incorretamente. Mesmo assim, os participantes permaneceram confiantes em suas respostas.
“Eles estavam até mais confiantes quando estavam realmente errados em suas escolhas do que quando estavam certos, o que é preocupante porque tinham menos conhecimento,” disse Bahg.
Implicações para Crianças e Aprendizado Diário
Turner destacou que essas descobertas têm relevância no mundo real.
“Se você tem uma criança pequena tentando realmente aprender sobre o mundo, e ela está interagindo com algoritmos online que priorizam o consumo de mais conteúdo, o que vai acontecer?” questionou Turner.
“Consumir conteúdo similar muitas vezes não se alinha com o aprendizado. Isso pode causar problemas para os usuários e, em última análise, para a sociedade.”
Vladimir Sloutsky, professor de psicologia na Ohio State, também foi coautor.






