No final de 2017, o Facebook anunciou uma novidade para conquistar um novo público: um aplicativo de mensagens para crianças. O Messenger Kids foi apresentado com os diferenciais de poder ser monitorado pelos pais e ter sido desenvolvido com apoio de especialistas. A ideia era permitir que as crianças “se conectassem com quem elas amavam”. Filtros e joguinhos garantiriam a diversão, com segurança para pais e mães.

 

 

Documentos internos da delatora Francis Haugen revelam alertas ignorados sobre como o algoritmo promovia extremismo, racismo e manipulava jovens para lucrar.

 

 

 

As provas que faltavam para mostrar como a rede manipulou você

Pouco mais de um ano depois, no entanto, um estudo interno da empresa levantou preocupações sobre a ferramenta. O aplicativo estava sendo usado apenas para as crianças se comunicarem com quem estava longe. Mas o Facebook queria mais. Queria tornar o Messenger Kids prioridade em momentos de lazer infantis. Queria que os amiguinhos passassem a usar o aplicativo também em brincadeiras ao vivo, juntos, e não apenas quando estivessem longe.

Em um documento interno da empresa chamado “Explorando brincadeiras como alavanca de crescimento do Messenger Kids”, funcionários do Facebook discutem o que chamam de “oportunidade”: trabalhar com os pais e as crianças para que o aplicativo rompesse a barreira do online e passasse a permear as brincadeiras ao vivo dos pequenos.

No estudo, o Facebook constatou que a maioria dos pais não permite que os filhos façam o uso de eletrônicos na hora de brincar. Isso era um problema para os negócios. “A maioria das crianças (68%) não usa o Messenger Kids nos momentos reservados para brincadeiras”, diz o documento. Em seguida, a empresa pontuou o que chamou de “áreas de oportunidade”: ferramentas para fazer com que o aplicativo seja usado para iniciar brincadeiras e marcar encontros. “Queremos encontrar maneiras de ajudar as crianças a falar sobre o app quando elas estão juntas”, diz o texto.

O objetivo da empresa fica claro: ela queria crescimento e retenção dos usuários – no caso, crianças pequenas. Não havia menção, por exemplo, ao fato de a Organização Mundial da Saúde recomendar que crianças entre 6 e 10 anos, o público-alvo do aplicativo, passem no máximo duas horas diárias em frente a telas. Segundo a empresa, agora rebatizada de Meta, a pesquisa tinha como objetivo melhorar as experiências das famílias com o aplicativo. A assessoria de imprensa da empresa, no entanto, afirmou reconhecer que “a linguagem usada no estudo não reflete nossa abordagem para uma questão séria”.

O avanço sobre as crianças é mais uma faceta da empresa, segundo revelações feitas à SEC, a agência federal americana responsável pela regulamentação e controle dos mercados financeiros, e fornecidas ao Congresso dos Estados Unidos em formato editado pelos advogados de Francis Haugen, uma ex-funcionária do Facebook. A versão editada do arquivo recebida pelo Congresso norte-americano está sendo revisada e publicada por um consórcio internacional de veículos jornalísticos, incluindo o Intercept.

Os documentos vazados por Haugen mostram de maneira cristalina o que críticos apontavam há anos: a máquina de experimentos do Facebook trabalha incessantemente para aumentar sua base de usuários e manter as pessoas por cada vez mais tempo na plataforma. Parte fundamental dos experimentos era a coleta contínua de uma montanha de dados sobre nós, usados para manipular a nossa atenção, moldar nosso comportamento e exibir anúncios desenhados com base nessas informações para satisfazer nossos desejos íntimos.

Os críticos já denunciaram muitas vezes as consequências desse modelo de negócios. Ele não está apenas transformando as pessoas em consumidores compulsivos de produtos, mas também de teorias da conspiração, pânico e desinformação. O algoritmo que produz a timeline que você vê prioriza conteúdos produzidos por pessoas brancas e ajuda a espalhar publicações de ódio e racismo. Influencia eleições e provoca violência política real, assassinatos e linchamentos. Também destrói a saúde mental de crianças e adolescentes. Em resumo, a plataforma criada com o singelo propósito de “conectar pessoas” ajuda a eleger tiranos e racha famílias.

O Facebook sempre rebateu as críticas, refutadas em seus comunicados de imprensa robóticos e ações precisas de relações públicas, com o apoio de parceiros que ajudaram a limpar sua imagem. Mas, enquanto emitia negativas protocolares, a empresa acumulava dezenas e mais dezenas de documentos, estudos, experimentos e discussões internas que confirmavam tudo. O arquivo mostra que empregados da empresa levavam em conta as críticas que a sociedade estava apontando e os problemas internos da rede social. Mas, na maior parte dos casos, o Facebook escolheu não corrigi-los, apesar dos esforços de alguns funcionários.

 

Em quatro semanas, um novo usuário que segue só conteúdo recomendado passa a ver mais posts distorcidos.

 

Mais grave, a empresa de Mark Zuckerberg não apenas sabia que os problemas existiam, mas também tinha condições técnicas e recursos para resolvê-los. Ainda assim, decidiu não fazer isso. É essa a história contada pelos documentos de Haugen, o que torna as coisas muito piores para Zuckerberg e sua tropa de choque.

Ex-cientista de dados da empresa, Haugen vazou os documentos, a princípio, para o Wall Street Journal – mais tarde, para as autoridades americanas. Depois, rompeu com o anonimato em várias entrevistas bombásticas, em que acusa o Facebook de priorizar o lucro em detrimento da saúde mental de seus usuários, de sociedades e da democracia. Segundo ela, “vidas estavam em risco”. “Eu fiz o que era necessário para salvar vidas, especialmente no sul global, que eu acho que estavam em perigo pela priorização do Facebook de lucro acima de pessoas. Se eu não tivesse apresentado esses documentos, isso nunca teria vindo à tona”, ela declarou.

Outro documento revelado por Haugen e revisado pelo Intercept, por exemplo, mostra investigações internas sobre vários conteúdos conspiratórios que se tornaram virais. Por que eles continuavam online mesmo após uma enxurrada de denúncias? Um deles, que questionava os atentados de 11 de setembro, foi classificado como “desinformação” pelo próprio Facebook. Isso não o impediu de ser visto mais de 4 milhões de vezes em um único dia. O veredito da equipe interna que analisou o vídeo? “Ignorar” as denúncias. Outro, que questionava a eficácia de máscaras na prevenção da covid-19, foi visto 11 milhões de vezes antes de ser classificado como desinformação. Na análise interna, o Facebook também decidiu ignorar as denúncias.

Em mais um documento vazado, um funcionário explica que, em 2018, no dia das eleições, 18,4 milhões de posts políticos foram visualizados 2,7 bilhões de vezes. No total, 74 milhões de pessoas foram impactadas pelo conteúdo político. Mas só 3% dos usuários foram responsáveis por 35% daquele material. É uma “influência desproporcional” no debate público, orquestrada, que pendia para um lado. Você pode imaginar qual: Jair Bolsonaro foi eleito presidente da República com folga.

O funcionário que escreveu o documento sugeria a adoção de medidas para equilibrar o debate e abaixar o alcance desse tipo de influência política coordenada. Não foi para frente. O resto da história você conhece: Bolsonaro se elegeu com facilidade e continuou usando o Facebook como trampolim político, inclusive com lives que espalharam mentiras negacionistas no meio da pandemia.

 

WASHINGTON, DC - JULY 29: Facebook CEO Mark Zuckerberg speaks via video conference during the House Judiciary Subcommittee on Antitrust, Commercial and Administrative Law hearing on Online Platforms and Market Power in the Rayburn House office Building, July 29, 2020 on Capitol Hill in Washington, DC. (Photo by Graeme Jennings-Pool/Getty Images)

Mark Zuckerberg alardeou o investimento em checagem de fatos como prova de que o Facebook se importava com a luta contra a desinformação. O que ele decidiu manter em segredo é que estudos internos provaram que os desmentidos não têm tanto efeito quanto se esperaria. Foto: Graeme Jennings-Pool/Getty Images

 

Não é usual que ex-funcionários de big techs quebrem a muralha de sigilo que protege as políticas internas. Desde que deixou o Facebook, revelou sua identidade em uma entrevista bombástica e depôs no Senado americano, Haugen tem recebido apoio de organizações como a Whisteblower Aid e a Luminate, braço filantrópico do grupo de Pierre Omidyar, fundador do eBay – que também financiou a fundação do Intercept. “O que as evidências mostram, de forma mais crítica, é que as torrentes de conteúdo tóxico das redes sociais são sintomas de uma causa raiz, o design de produto e o modelo de negócios. Esses serviços digitais foram projetados para maximizar engajamento, isso é, capturar a nossa atenção para vender aos anunciantes com pouca preocupação sobre as consequências”, disse a Luminate em um comunicado em que explicou por que apoiará diretamente as iniciativas que trouxerem essas questões ao debate público.

Desde outubro, um consórcio de veículos tem se debruçado sobre o arquivo, cuja versão disponível para a imprensa omite informações como nomes de funcionários e títulos de pesquisas. Os documentos não serão apresentados na íntegra para evitar a exposição involuntária de outros funcionários do Facebook. Nós já falamos das primeiras revelações, publicadas no The Wall Street Journal, aqui. No Brasil, reportagens baseadas no arquivo de Haugen também já foram publicadas pelo Núcleo Jornalismo, Folha e Estadão.

Nós mergulhamos nos documentos e conversas, que saem agora do campo etéreo de algoritmos e outros cálculos difíceis de entender e chegam em pessoas reais, que ganhavam salários para maximizar nosso tempo na plataforma, captar nossas informações e fazer a empresa lucrar mais do que nunca. Nesse laboratório, fomos todos cobaias, e o resultado do experimento ultrapassa as fronteiras do mundo virtual.

A seguir, confira alguns dos principais documentos analisados pelo Intercept até agora.

 

Facebook precisa de apenas quatro semanas para radicalizar opiniões

Os documentos secretos de Haugen mostram evidências de que o Facebook sabia muito bem como o seu algoritmo operava a favor da radicalização dos usuários. Um post publicado na rede interna da empresa em 3 de setembro de 2020 cita três estudos e conclui que leva apenas quatro semanas para que um novo usuário que segue só conteúdo recomendado passe a ver mais posts divisivos, polarizadores ou distorcidos. Um mês de Facebook, e uma pessoa razoável vira um radical político, graças ao algoritmo.

Um dos estudos citados, detalhado na Vice, mostra que um usuário comum leva apenas uma semana para ser bombardeado por conteúdos do QAnon, que espalha uma série de mentiras delirantes sobre uma suposta elite global de pedófilos.

O Facebook sabia como isso acontecia. O escritório da empresa no Reino Unido encomendou a pesquisadores independentes um estudo só sobre teorias conspiratórias. O arquivo, que suprime o nome dos envolvidos, também está entre o material vazado por Haugen e analisado pelo Intercept. “O alcance global do Facebook e outras plataformas de mídia permitem uma rápida disseminação dessas teorias por vastas distâncias”, diz a pesquisa. “A interatividade, conteúdo que prende a atenção e a habilidade de formar grupos dedicados em algumas redes sociais facilitam o compartilhamento e a manutenção de teorias da conspiração”.

Os pesquisadores enumeram várias: delírios de que redes 5G causam covid-19, negacionistas de mudanças climáticas, gente que batia o pé acreditando que a pandemia era uma farsa e o próprio ecossistema QAnon.

O estudo mostra que há grupos dedicados a disseminar essas teorias e que os usuários mais suscetíveis a elas normalmente tendem a só compartilhar esse tipo de conteúdo e ignorar o resto. “A informação é muitas vezes tirada de um amigo que tem a mesma visão, resultando em câmaras de eco online”, diz o documento. “Nelas, usuários tendem a ficar presos em comunidades que compartilham o mesmo interesse, e isso resulta no reforço de crenças conspiratórias e alimenta o viés de confirmação”.

Em um post antivacina, por exemplo, os pesquisadores constataram que a linguagem normalmente aparenta ser factual e tem uma estrutura lógica – muitas vezes mimetizando informação científica.

O estudo detalha, também, estratégias que funcionam e que não funcionam contra esse tipo de conteúdo. No rol das falhas está a mera suspensão de contas, o que alimenta a suposição de que “eles não querem que você saiba disso”. Outra é a checagem de fatos: apesar de os desmentidos poderem “potencialmente” mitigar crenças conspiratórias, eles não agem sobre as crenças mais profundas, nem desmontam o sistema mental que faz as pessoas caírem nas mentiras.

O estudo interno desmonta uma estratégia do Facebook: listar financiamento de checagem como “combate às fake news”. Essa foi, aliás, uma das ações que a empresa alardeou, em 2018, como uma estratégia para “ajudar as pessoas a tomarem decisões mais informadas” na campanha eleitoral. Como sabemos, funcionou mais como marketing do que como política de proteção do debate público.

Isso porque, enquanto anunciava esses gastos – que, convenhamos, não faziam nem cócegas nos lucros bilionários da empresa –, o Facebook não mudava em nada seu sistema de ranqueamento que privilegiava conteúdo mentiroso e violento para prender atenção.

A empresa, por meio de sua assessoria, afirmou que as pesquisas internas são parte de um “esforço para criar um espaço seguro em nossas plataformas para todos os usuários”. Também contestou a ideia de que é responsável pela radicalização. “As evidências que existem simplesmente não apoiam a ideia de que o Facebook, ou as redes sociais em geral, são a principal causa da polarização. O aumento da polarização política antecede as redes sociais em várias décadas. Se fosse verdade que o Facebook é a principal causa da polarização, esperaríamos vê-la crescendo onde quer que o Facebook seja popular. Não é”, disse a empresa.

 

Facebook escolheu ficar ‘cego’ para o racismo de seu algoritmo

Em junho de 2020, um funcionário decidiu compartilhar seu “pensamento aprofundado” sobre a diferença no uso dos produtos do Facebook de acordo com a raça dos usuários. Seu diagnóstico: a empresa estava escolhendo não olhar para essa questão, mesmo sabendo que muitos de seus produtos poderiam reproduzir racismo.

“Mesmo que nós presumidamente não tenhamos políticas desenhadas com a intenção de prejudicar minorias, nós definitivamente temos políticas e práticas que o fazem”, começa o texto, que faz parte do arquivo de Francis Haugen, postado em um grupo interno que debate ideias para enfrentar a injustiça racial.

O que ele reconheceu internamente é o que vem sendo repetido há anos por pesquisadores que acusam a plataforma de racismo algorítmico: os sistemas da empresa reproduzem desigualdades de acordo com a raça do usuário. Em 2019, um estudo já havia mostrado que o Facebook era escandalosamente racista e machista: anúncios de vagas de táxi eram exibidos para homens negros, e de secretárias, para mulheres. Em setembro de 2021, a inteligência artificial do Facebook indicou a usuários da plataforma vídeos de primatas após a reprodução de um video protagonizado por um homem negro.

“Devemos exaustivamente estudar como nossas decisões e os mecanismos da rede social apoiam ou não minorias”, defendeu o funcionário. Ele explicou que identificou usos díspares nos produtos do Facebook por raça, mas seu próximo parágrafo deixa claro por que questões sobre grupos minoritários não são tratadas: o Facebook escolheu ser “racialmente cego” – expressão que significa não considerar questões raciais nas decisões. E com isso, faltam medidas e métricas que apoiem mudanças para garantir justiça racial.

Segundo o funcionário, o Facebook “intencionalmente evita capturar informações sobre a raça dos usuários”. A razão para isso pode até ser boa: sem coletar dados de raça, anunciantes não conseguem segmentar anúncios específicos para pessoas brancas, por exemplo. Mas o empregado viu dois problemas com a escolha.

“Primeiro, nossos sistemas de machine learning quase certamente são capazes de supor a raça de muitos usuários. É virtualmente garantido que nossos sistemas apresentam preconceitos baseados na raça do usuário”.

“Segundo, muitas das ideias de justiça social que discuto abaixo são extremamente difíceis de estudar se não formos capazes de fazer análises baseadas em raça”, continuou o funcionário. E há ainda uma visão mais cínica, ele completa, para a falta de dados sobre raça no Facebook. A plataforma deseja evitar saber o que está fazendo. E o que o Facebook está fazendo?

Assim como percebido nas eleições brasileiras de 2018, quando grande parte do conteúdo do feed de notícias foi produzido por um pequeníssimo número de usuários, o Facebook percebeu que pessoas negras estavam marginalizadas no debate na rede.

“Qual a fração de VPV dos Estados Unidos de posts criados por pessoas negras e qual a fração de posts visualizados por pessoas negras?”, ele questiona. Se as publicações de pessoas negras forem significativamente menos vistas que as publicações criadas por grupos dominantes e vistas por negros, então vozes negras são sub-representadas em relação ao seu uso da plataforma.

 

Os usuários recorrem ao Instagram quando precisam de suporte em maus momentos, mas a rede social piora o que já está ruim.

 

Não fosse isso um problema por si só, ele é agravado pela otimização do engajamento promovido pela própria plataforma: “a maioria das grandes vozes negras no espaço cívico são conservadoras e apresentam visões que não parecem representar amplamente a comunidade negra”, o funcionário aponta.

“De maneira simples, as escolhas que fazemos no ranqueamento do feed de notícias (e distribuindo anúncios, e em outros produtos) têm um grande efeito em quem se dá bem ou não na nossa plataforma”. Vozes divisivas e sensacionalistas ganham com o posicionamento do Facebook, enquanto todo o resto dos usuários, populações e democracias perdem. E a plataforma sabe disso, outro funcionário fez questão de complementar.

Embora o “problema com pessoas negras” da plataforma seja discutido há anos, o Facebook passou longe de assumir ou resolver as implicações de sua atividade nas comunidades minoritárias. Uma planilha interna utilizada para enumerar casos de racismo na plataforma dá uma ideia da dimensão dos problemas. O primeiro da lista são relativos a reclamações sobre “notificações indesejadas sobre familiares/publicações que elas consideram racistas”. A solução do Facebook? “Educar os usuários sobre como desligar notificações indesejadas”.

Também há uma série de problemas com sugestões e pedidos de amizade. Usuários reportaram receber pedidos de amizade de pessoas que tinham excluído de sua lista de amigos por racismo, além de ver pessoas excluídas pelo mesmo motivo sendo reapresentadas pelo Facebook como sugestões de amizade. Teoricamente, usuários que desfizeram amizades na plataforma não deveriam ser importunados novamente pelos indivíduos. A solução proposta é apenas confirmar se a experiência de sugestão e pedidos de amizade está funcionando como pretendido.

No dia 18 de novembro deste ano – muito provavelmente em resposta às críticas levantadas pelos vazamentos –, a empresa publicou um texto em que detalha suas metodologias para criar métricas para estudar questões raciais na plataforma. No mesmo dia, também divulgou um relatório sobre o avanço de suas medidas de equidade.

 

Mark Zuckerberg, chief executive officer of Facebook Inc., speaks during the virtual Facebook Connect event, where the company announced its rebranding as Meta, in New York, U.S., on Thursday, Oct. 28, 2021. A major theme at the annual conference will be the company's ambitions for the so-called metaverse, a new digital space that it believes will supplant smartphone apps as the primary form of online interaction. Photographer: Michael Nagle/Bloomberg via Getty Images

Confrontado em março do ano passado por uma deputada sobre o papel do Facebook no aumento de 60% do número de tentativas de suicídio entre adolescentes nos EUA entre 2011 e 2018, Mark Zuckerberg preferiu fazer rodeios a responder. Foto: Michael Nagle/Bloomberg via Getty Images

Sua vida parece muito pior no Facebook

Na última década, pesquisadores do mundo todo se aprofundaram nos sentimentos negativos proporcionados pelo uso das redes sociais, como a insegurança e a comparação constante. O próprio Facebook também investigou o impacto desses sentimentos. Não porque exista uma preocupação genuína com a saúde dos seus usuários, mas, sim, devido ao medo de perdê-los e do desejo de prolongar e estreitar cada vez mais essa relação.

Outro documento dos Facebook Papers mostra como a empresa tem ciência disso. Intitulado “Community RYSK 2020” e postado internamente em 12 de fevereiro de 2020, ele enumera várias pesquisas internas que os funcionários têm que conhecer – RYSK é um sigla para research you should know (pesquisas que você deveria conhecer, em português).

O primeiro deles, sobre saúde mental, considera a opinião de mais de 22 mil entrevistados de países como Estados Unidos, Brasil, Índia, Turquia e Indonésia. Os participantes tinham entre 13 e 65 anos e responderam um questionário sobre o Instagram. As constatações trazem alguns pontos:

  • “A maioria dos usuários recorre ao Instagram para se distrair quando está passando por momentos ruins”;
  • “30% das adolescentes meninas acham que o Instagram aumentou a insatisfação com seus próprios corpos”;
  • “29% dos usuários do Instagram reportaram que usam menos o aplicativo e 4% desativaram suas contas temporariamente, ambos devido às comparações sociais”;
  • “Comparação social negativa pode causar ou ser correlacionada com outras questões referentes à imagem corporal, autoestima, solidão e depressão”.

No estudo, a empresa detalha o sofrimento humano: os usuários recorrem ao Instagram quando precisam de suporte em momentos ruins. Na rede social, no entanto, eles não encontram o que precisam. Pelo contrário: a rede social piora o que já está ruim. Entre as consequências negativas do Instagram, o Facebook relata piora na autoestima, ansiedade, insegurança, isolamento, adoção de hábitos danosos, solidão e depressão.

No fim, o documento transforma o sofrimento em uma espécie de produto que precisa de ajustes para voltar à prateleira e ter um melhor desempenho nas vendas. Os entrevistados sentem que são ocupados demais e que suas vidas não são interessantes o suficiente para postarem, sentimentos que se traduzem em experiências ruins na plataforma – problemas encarados como “oportunidades para o futuro” para a equipe de crescimento.

Um dos apontamentos feito pela equipe ao longo do texto é que “potenciais soluções de produto”, nesse caso, deveriam “dar às pessoas um melhor controle do conteúdo que veem”. As experiências negativas com o uso do aplicativo também são consideradas no documento, que mostra que 17% dos usuários que desativam suas contas têm como queixa principal os efeitos devastadores da comparação social.

Entre 2011 e 2018, a taxa de depressão, automutilação e tentativa de suicídio aumentou 60% nos Estados Unidos entre adolescentes. Em março deste ano, uma deputada norte-americana chegou a confrontar Mark Zuckerberg sobre o papel do Facebook e do Instagram diante desses números. Ele desconversou.

O sentimento de que as outras pessoas são mais felizes e melhores sucedidas não é novo para a humanidade, mas foi potencializado pelo bombardeio de informações nas redes sociais. Em 2018, foi publicado pela empresa o estudo interno “O Facebook aumenta e diminui a solidão”, assinado pela pesquisadora e cientista de dados Moira Burke, que trabalha para a rede social desde 2012. O texto, inédito até ser vazado por Haugen, afirma que “pessoas solitárias usam muito o Facebook” e traz os resultados de um questionário internacional respondido pelos usuários.

“Pessoas que usam o Facebook cerca de uma hora por dia são as menos solitárias. Já as que usam muito mais ou muito menos tempo são mais solitárias”, aponta o documento. Entre os entrevistados, 45% afirmaram: “muitas das pessoas que vejo no Facebook têm uma vida melhor que a minha”.

Segundo a Meta, os estudos “servem para que possamos construir produtos melhores”. “As pesquisas informam como construímos experiências sociais de melhor qualidade em nossos produtos”, disse a empresa.

 

Facebook programou redes para nos viciar

Se usar o Facebook e o Instagram nos faz tão mal, por que não conseguimos parar? Basicamente, porque eles são programados para serem viciantes: os problemas causados pela própria plataforma eram resolvidos com mais e mais ferramentas para explorar os pontos fracos do nosso cérebro e permitir o crescimento e a retenção da base de usuários.

Em 2020, o Facebook perdeu o trono de dono do aplicativo mais baixado do mundo. O TikTok, um novo concorrente que explora a mesma lógica de retenção dos usuários, dominou as atenções e downloads. Para concorrer com a novidade, a plataforma fez algo que já havia feito outras vezes: copiou a ideia. Em agosto do mesmo ano, o Instagram agregou o Reels, um espaço para criação e compartilhamento de vídeos curtos, divertidos e virais, assim como os do TikTok.

Quando você passeia pela timeline no Instagram e se depara duas vezes com Reels que utilizam um mesmo áudio, não é coincidência. Nem tendência. É de propósito. É o aplicativo que quer te influenciar a usar esse áudio, criar um novo Reels e dar continuidade a uma cadeia gigante de pessoas que repetem um mesmo comportamento e enriquecem a plataforma.

Um estudo de janeiro de 2020 chamado “Alavancas de mimetismo para Reels 2021”, que faz parte do arquivo de Haugen, traz diversos apontamentos sobre as práticas mais lucrativas para impactar usuários com conteúdos nesse formato. “A exposição repetida ao mesmo áudio em um dia tem um impacto positivo imediato na criação [de conteúdo similar]”, traz o texto, que analisa o comportamento padrão dos usuários. A Meta não comentou o documento.

O Instagram entende, por exemplo, que não vale a pena mostrar Reels de contas com muitos seguidores para perfis com poucos seguidores. Isso não é inspirador e não gera identificação, fazendo com que o usuário não queira repetir esse padrão e criar um novo conteúdo. São táticas como essa que fazem o algoritmo ser eficaz.

No final do documento, uma frase aparentemente sem importância sintetiza o que Mark Zuckerberg e sua empresa têm feito desde 2004: “Estamos conduzindo uma série de experimentos para validar alavancas de mimetismo”. Nunca duvidamos disso.

The Intercept