Veja exatamente como os algoritmos de mídia social podem manipulá-lo
As evidências mostram que a informação é transmitida por meio de contágio complexo.
Austin Distel / Unsplash
Um relatório interno do Facebook descobriu que os algoritmos da plataforma de mídia social – as regras que seus computadores seguem para decidir o conteúdo que você vê – permitiram que campanhas de desinformação baseadas na Europa Oriental alcançassem quase metade de todos os americanos no período que antecedeu as eleições presidenciais de 2020. de acordo com um relatório em Technology Review .
As campanhas produziram as páginas mais populares para conteúdo cristão e negro americano e, no geral, atingiram 140 milhões de usuários nos EUA por mês. Setenta e cinco por cento das pessoas expostas ao conteúdo não seguiram nenhuma das páginas. As pessoas viram o conteúdo porque o sistema de recomendação de conteúdo do Facebook o colocou em seus feeds de notícias.
As plataformas de mídia social dependem muito do comportamento das pessoas para decidir sobre o conteúdo que você vê. Em particular, eles observam o conteúdo ao qual as pessoas respondem ou se envolvem curtindo, comentando e compartilhando. Fazendas de trolls , organizações que divulgam conteúdo provocativo, exploram isso copiando conteúdo de alto engajamento e postá-lo como seu próprio .
Como tem cientista da computação que estuda as formas como um grande número de pessoas interage usando a tecnologia, eu entendo a lógica de usar o sabedoria das multidões nesses algoritmos. Também vejo armadilhas substanciais em como as empresas de mídia social fazem isso na prática.
De leões na savana a curtidas no Facebook
O conceito de sabedoria das multidões pressupõe que usar os sinais das ações, opiniões e preferências dos outros como guia levará a decisões acertadas. Por exemplo, previsões coletivas são normalmente mais precisos do que os individuais. A inteligência coletiva é usada para prever mercados financeiros, esportes , eleições e até mesmo surtos de doenças .
Ao longo de milhões de anos de evolução, esses princípios foram codificados no cérebro humano na forma de vieses cognitivos que vêm com nomes como familiaridade , mera exposição e efeito Bandwagon . Se todos começarem a correr, você também deve começar a correr; talvez alguém tenha visto um leão vindo e correndo poderia salvar sua vida. Você pode não saber o porquê, mas é mais sensato fazer perguntas depois.
Seu cérebro pega pistas do ambiente – incluindo seus pares – e usa regras simples para traduzir rapidamente esses sinais em decisões: vá com o vencedor, siga a maioria, copie seu vizinho. Essas regras funcionam notavelmente bem em situações típicas porque são baseadas em suposições sólidas. Por exemplo, eles assumem que as pessoas muitas vezes agem racionalmente, é improvável que muitos estejam errados, o passado prediz o futuro e assim por diante.
A tecnologia permite que as pessoas acessem sinais de um número muito maior de outras pessoas, a maioria das quais elas não conhecem. Os aplicativos de inteligência artificial fazem uso pesado desses sinais de popularidade ou engajamento, desde a seleção de resultados de mecanismos de pesquisa até a recomendação de músicas e vídeos, e desde a sugestão de amigos até a classificação de postagens em feeds de notícias.
Nem tudo que viraliza merece ser
Nossa pesquisa mostra que praticamente todas as plataformas de tecnologia da web, como redes sociais e sistemas de recomendação de notícias, têm um forte viés de popularidade . Quando os aplicativos são orientados por sugestões como engajamento em vez de consultas explícitas de mecanismos de pesquisa, o viés de popularidade pode levar a consequências não intencionais prejudiciais.
Mídias sociais como Facebook, Instagram, Twitter, YouTube e TikTok dependem muito de algoritmos de IA para classificar e recomendar conteúdo. Esses algoritmos levam como entrada o que você gosta, comenta e compartilha – em outras palavras, o conteúdo com o qual você se envolve. O objetivo dos algoritmos é maximizar o engajamento descobrindo do que as pessoas gostam e classificando-o no topo de seus feeds.
Na superfície, isso parece razoável. Se as pessoas gostam de notícias confiáveis, opiniões de especialistas e vídeos divertidos, esses algoritmos devem identificar esse conteúdo de alta qualidade. Mas a sabedoria das multidões faz uma suposição fundamental aqui: que recomendar o que é popular ajudará o conteúdo de alta qualidade a borbulhar.
Nós testou essa suposição estudando um algoritmo que classifica itens usando uma mistura de qualidade e popularidade. Descobrimos que, em geral, o viés de popularidade tem maior probabilidade de diminuir a qualidade geral do conteúdo. A razão é que o engajamento não é um indicador confiável de qualidade quando poucas pessoas foram expostas a um item. Nesses casos, o engajamento gera um sinal ruidoso e o algoritmo provavelmente amplificará esse ruído inicial. Uma vez que a popularidade de um item de baixa qualidade seja grande o suficiente, ele continuará sendo amplificado.
Os algoritmos não são a única coisa afetada pelo viés de engajamento – ele pode afetar as pessoas também. A evidência mostra que a informação é transmitida através de contágio complexo , ou seja, quanto mais vezes as pessoas forem expostas a uma ideia online, maior será a probabilidade de adotá-la e compartilhá-la novamente. Quando a mídia social diz às pessoas que um item está se tornando viral, seus vieses cognitivos entram em ação e se traduzem no desejo irresistível de prestar atenção a ele e compartilhá-lo.
Multidões não tão sábias
Recentemente, fizemos um experimento usando um aplicativo de alfabetização de notícias chamado Fakey . É um jogo desenvolvido pelo nosso laboratório, que simula um feed de notícias como os do Facebook e Twitter. Os jogadores veem uma mistura de artigos atuais de notícias falsas, ciência lixo, fontes hiperpartidárias e conspiratórias, bem como fontes convencionais. Eles ganham pontos por compartilhar ou curtir notícias de fontes confiáveis e por sinalizar artigos de baixa credibilidade para verificação de fatos.
Descobrimos que os jogadores mais propensos a curtir ou compartilhar e menos propensos a sinalizar artigos de fontes de baixa credibilidade quando os jogadores podem ver que muitos outros usuários se envolveram com esses artigos. A exposição às métricas de engajamento cria uma vulnerabilidade.

A sabedoria das multidões falha porque se baseia na falsa suposição de que a multidão é composta de fontes diversas e independentes. Pode haver várias razões para que este não seja o caso.
Primeiro, devido à tendência das pessoas de se associarem a pessoas semelhantes, seus bairros online não são muito diversos. A facilidade com que os usuários de mídia social podem desfazer a amizade daqueles com quem discordam empurra as pessoas para comunidades homogêneas, muitas vezes chamadas de câmaras de eco .
Segundo, porque os amigos de muitas pessoas são amigos uns dos outros, eles influenciam uns aos outros. UMA experimento famoso demonstraram que saber de que música seus amigos gostam afeta suas próprias preferências declaradas. Seu desejo social de se conformar distorce seu julgamento independente.
Terceiro, os sinais de popularidade podem ser manipulados. Ao longo dos anos, os motores de busca desenvolveram técnicas sofisticadas para combater os chamados ligar fazendas e outros esquemas para manipular algoritmos de busca. As plataformas de mídia social, por outro lado, estão apenas começando a aprender sobre seus próprios vulnerabilidades .
Pessoas com o objetivo de manipular o mercado da informação criaram contas falsas , como trolls e bots sociais , e organizado redes falsas . Eles têm inundou a rede para criar a aparência de que um teoria da conspiração ou um candidato político é popular, enganando os algoritmos da plataforma e os preconceitos cognitivos das pessoas ao mesmo tempo. Eles têm mesmo alterou a estrutura das redes sociais para criar ilusões sobre as opiniões da maioria .
Diminuindo o engajamento
O que fazer? As plataformas de tecnologia estão atualmente na defensiva. Eles estão se tornando mais agressivo durante as eleições em derrubando contas falsas e desinformação prejudicial . Mas esses esforços podem ser semelhantes a um jogo de bater uma toupeira .
Uma abordagem preventiva diferente seria adicionar atrito . Em outras palavras, para retardar o processo de divulgação de informações. Comportamentos de alta frequência, como curtidas e compartilhamentos automatizados, podem ser inibidos por CAPTCHA testes ou taxas. Isso não apenas diminuiria as oportunidades de manipulação, mas com menos informações as pessoas seriam capazes de prestar mais atenção ao que veem. Isso deixaria menos espaço para o viés de engajamento afetar as decisões das pessoas.
Também ajudaria se as empresas de mídia social ajustassem seus algoritmos para depender menos do engajamento para determinar o conteúdo que veiculam. Talvez as revelações do conhecimento do Facebook sobre fazendas de trolls que exploram o engajamento forneçam o impulso necessário.
Este artigo é republicado de A conversa sob uma licença Creative Commons. Leia o artigo original .
Neste artigo Psicologia de eventos atuais Tendências tecnológicasCompartilhar: