Imagem: Freepik

Algoritmos de recomendação restringem diversidade e distorcem o aprendizado, aponta estudo

Sistemas de recomendação reduzem a variedade de informações e levam usuários a conclusões equivocadas sobre assuntos pouco explorados

TECNOLOGIAMERCADO

Por Redação InfoDot

12/10/20254 min read

A ideia de compreender o mundo normalmente nasce a partir do contato com o inesperado. Quando essa diversidade de experiências é reduzida, a percepção se estreita e é exatamente esse efeito que preocupa pesquisadores ao analisarem o impacto dos algoritmos sobre o aprendizado.

Durante muito tempo, a palavra “algoritmo” foi associada a uma simples sequência de instruções, um método fixo para solucionar tarefas. Esse conceito começou a mudar no início da década de 2010, impulsionado pelo avanço do machine learning e do deep learning, áreas que transformaram esses sistemas em ferramentas ativas de tomada de decisão.

A partir de 2012, ganharam força os algoritmos de personalização, filtros digitais responsáveis por organizar e priorizar os conteúdos acessados na internet. Eles deixaram de apenas responder ao histórico de preferências dos usuários para também antecipar interesses, sugerindo materiais mesmo antes de uma demanda consciente ser expressa.

Empresas como Google, YouTube e Facebook sustentam que esses sistemas ampliam o acesso à informação e reduzem o excesso de conteúdo disponível. Entretanto, um estudo recente conduzido por pesquisadores das universidades Vanderbilt e Estadual de Ohio (OSU), nos Estados Unidos, desafia essa promessa. A pesquisa foi publicada na revista Journal of Experimental Psychology.

Os autores mostram que tais mecanismos tendem a reduzir a diversidade de informações oferecidas ao público e podem levar a percepções equivocadas sobre temas pouco conhecidos. Em laboratório, os cientistas observaram que, ao delegar a escolha de conteúdos a algoritmos, o usuário passa a receber um recorte limitado da realidade, o que compromete a construção de um entendimento amplo.

Com menos contato com diferentes perspectivas, o indivíduo transfere esse conhecimento parcial para novas situações e desenvolve a sensação de domínio sobre assuntos que, na prática, conhece apenas superficialmente, reproduzindo visões enviesadas e incompletas.

Para explicar o fenômeno, Brandon Turner, pesquisador sênior da OSU, destaca que o problema não se limita às informações deixadas de fora, mas se aprofunda na percepção equivocada do próprio aprendizado. Segundo ele, "As pessoas perdem informações quando seguem um algoritmo, mas acham que o que sabem se generaliza para outras características e partes do ambiente que nunca experimentaram". O resultado é a formação de indivíduos excessivamente confiantes, apesar de possuírem um repertório restrito.

O artigo ilustra essa dinâmica com um exemplo prático. Imagine alguém interessado em conhecer filmes de um país que nunca explorou. Ao recorrer a um serviço de streaming com curadoria algorítmica, as primeiras recomendações incluem produções populares. Por acaso, a pessoa escolhe um título de ação ou thriller, aprecia o filme e completa a exibição.

Com base nesse comportamento, o sistema identifica que usuários que viram aquela obra também consomem conteúdos de gêneros semelhantes, como ação, thriller e neo-noir. A partir daí, a lista de sugestões passa a ser dominada por títulos desse mesmo perfil.

Para quem buscava apenas entretenimento, a função está cumprida. Já para quem pretendia compreender a diversidade da cinematografia daquele país, o resultado é um filtro distorcido. O espectador deixa de acessar obras de outros estilos e, mais grave, forma uma visão exagerada sobre a cultura popular local, podendo concluir, de maneira precipitada, que aquele país produz quase exclusivamente filmes criminais ou sombrios.

A equipe decidiu testar empiricamente esse efeito por meio de um experimento online com 346 participantes. Eles foram convidados a aprender a classificar “alienígenas fictícios” baseados em diferentes características visuais.

Os voluntários foram separados em dois grupos. Um deles recebia exemplos escolhidos por um algoritmo de filtragem colaborativa, similar ao usado por plataformas como o YouTube. O outro grupo visualizava os estímulos de forma aleatória, sem qualquer personalização.

Os resultados revelaram que aqueles submetidos à curadoria automática concentraram sua atenção em apenas alguns atributos das figuras apresentadas, ignorando outros aspectos relevantes. Dessa forma, aprenderam de modo parcial e distorcido, mas demonstraram elevada autoconfiança, inclusive ao responder questões sobre categorias de alienígenas que quase não haviam observado.

Segundo os pesquisadores, o problema está ligado ao objetivo central dos sistemas de recomendação, programados para ampliar tempo de uso, cliques e engajamento. Para isso, priorizam conteúdos parecidos com aqueles já consumidos, diminuindo a exposição a estímulos variados.

Turner chama atenção para os impactos desse mecanismo em ambientes de formação. “No mundo real, quando crianças em fase de aprendizagem ficam expostas a algoritmos online, que priorizam apenas parte do conteúdo, o que pode acontecer?”, questiona o pesquisador. Ele completa: "Consumir conteúdo semelhante muitas vezes não está alinhado com o aprendizado. Isso pode causar problemas para os usuários e, em última instância, para a sociedade".

Em meio a um cenário cada vez mais mediado por tecnologia, o estudo reforça a importância de refletir sobre como a organização algorítmica da informação pode moldar, e limitar, aquilo que acreditamos saber.

Quando o acesso é filtrado demais, o conhecimento tende a perder profundidade.

Leia mais...