Como os algoritmos hackeiam a mente humana
Pesquisador do impacto causado por plataformas digitais, o jornalista Max Fisher liga estratégias das big techs a estudos científicos sobre evolução e comportamento
Ele compartilhou com a plateia uma estratégia que aplica no Instagram: “Tem um botão que trava o aplicativo e eu não consigo acessar nada. Há aplicativos que limitam nossa capacidade de usar as redes sociais.” Também recomenda deixar a visualização de tela em preto e branco, para que o uso do celular seja menos viciante.
Pedro Tavares, 05 dez 2023
Em 2017, milhares de pessoas do povo rohingya foram assassinadas em Mianmar em meio a boatos de que essa minoria muçulmana planejava atacar a maioria budista do país. Para muitos pesquisadores, grandes plataformas digitais, em especial o Facebook, contribuíram expressivamente para o genocídio, ao não interferir na disseminação de mentiras e ódio em seus posts. O livro A Máquina do Caos: Como as Redes Sociais Reprogramaram Nossa Mente e Nosso Mundo, do jornalista Max Fisher (publicado no Brasil pela editora Todavia), narra como pessoas e entidades do país tentaram alertar funcionários da empresa de Mark Zuckerberg – inclusive pessoalmente – sobre o que se passava, sem que ações fossem tomadas.
O caso foi um dos comentados por Fisher no Festival piauí de Jornalismo, no último fim de semana, na Cinemateca Brasileira, em São Paulo. A conversa foi mediada por Patrícia Campos Mello, repórter especial do jornal Folha de S.Paulo e autora do livro A Máquina do Ódio, e por Daniel Bergamasco, editor executivo da revista piauí. Fisher trabalhou em jornais como o Washington Post e o New York Times, a revista The Atlantic e o portal Vox. Hoje integra a equipe da multiplataforma Crooked Media, um nome irônico: quer dizer “mídia distorcida” em inglês, e é como Donald Trump costumava se referir a veículos que publicavam reportagens críticas contra ele.
“O Facebook sabia que a plataforma estava incitando violência em Mianmar”, afirma. Para Fisher, porém, reconhecer esse papel significava dizer que o algoritmo é capaz de provocar algo sério e nocivo em qualquer lugar do mundo – e assim concordar com as frequentes queixas vindas de todos os cantos. Em 2018, por exemplo, houve uma crise de refugiados na fronteira dos Estados Unidos com imigrantes vindos da América Central. Fisher lembra que uma onda de desinformação e de ódio contra os refugiados se espalhou. “Diziam que os imigrantes estavam cometendo crimes. Até o presidente [Donald Trump] compartilhou isso.”
Em seu trabalho de reportagem, Fisher ouviu ex-funcionários das big techs que relatam os constantes esforços para maximizar o tempo de permanência dos usuários. “Era explícita a intenção das big techs de criar um mecanismo que fosse tão viciante como álcool e nicotina”, explica. Conteúdos que despertam a indignação tendem a ter mais engajamento, por isso um vídeo conspiratório e falso sobre perigos secretos das vacinas naturalmente despertará mais raiva que um conteúdo correto e informativo sobre a importância de se imunizar contra uma doença. Se você tuitar conteúdo de ultraje moral (posts de ataque ou ameaças, por exemplo), o algoritmo que determina o que as pessoas veem na plataforma vai se certificar de que muitas pessoas vejam o seu tuíte, porque a plataforma promove o engajamento de conteúdo ultrajante”, ele conta. Mas o que explica esse comportamento?
“Quando comecei a pesquisar os efeitos das redes sociais no mundo, a pergunta era: como provamos cientificamente que as redes mobilizam o cérebro humano?” Em seu trabalho de apuração, Fisher buscou estudos científicos que mostram que conteúdos que despertam indignação mexem com os instintos humanos de proteção. Com o aparecimento da linguagem na evolução (para alguns cientistas, há meio milhão de anos), os seres humanos passaram a somar forças para combater ameaças – inclusive às de membros mais fortes de suas comunidades, que se impunham no grito e na violência, mesmo contra a força da maioria. Portanto, o ato de se insurgir contra algo que parece nocivo a um grupo é sentido como uma virtude social. Há estudos que mostram que reagir a um problema sob o testemunho de outras pessoas aciona com mais intensidade os mecanismos de satisfação.
O compartilhamento e o engajamento na desinformação não têm relação com nível de instrução ou escolaridade dos usuários, segundo o repórter, mas sim em como o cérebro reage aos fatos no contexto de rede social. Ele diferencia o lado racional da mente do lado social – o segundo pode se sobrepor ao primeiro quando exposto a dados falsos que causam revolta e precisam demandar uma reação.
Fisher não vê soluções simples, mas acredita que as redes sociais devem ser encaradas pela sociedade como uma droga lícita. “[As redes] vão nos viciar e mudar o modo como nosso cérebro funciona. Precisamos criar níveis de segurança e entender como cada pessoa reage, assim como acontece com o álcool”, explica. Ele compartilhou com a plateia uma estratégia que aplica no Instagram: “Tem um botão que trava o aplicativo e eu não consigo acessar nada. Há aplicativos que limitam nossa capacidade de usar as redes sociais.” Também recomenda deixar a visualização de tela em preto e branco, para que o uso do celular seja menos viciante.
Max Fisher foi o primeiro convidado a participar duas vezes do Festival piauí de Jornalismo. Na primeira, em 2014, durante a conversa mediada pelos jornalistas Bernardo Esteves e Fernando Rodrigues, Fisher abordou a evolução do jornalismo na era digital e destacou que a proliferação de meios de comunicação oferece diferentes maneiras de alcançar os leitores. Na época era diretor da Vox Media, que tinha um conteúdo pensado em grande parte para viralizar nas redes sociais. Com o tempo, se atentou para os efeitos colaterais das plataformas.
“Minha maior preocupação em 2024 é entender o impacto do TikTok.” Ele se refere à proliferação de conteúdos feitos para parecer informativos, mas que são carregados de vícios, e que se tornam a principal fonte de conhecimento de parte dos usuários que estão em massa no aplicativo. “De maneira geral o efeito é negativo. Mesmo que seja um influencer bem-intencionado, não é igual a um veículo de notícia.” Fisher avalia que o nível de desinformação gerado no TikTok vai muito além do que já foi visto nas outras redes, e alerta para os riscos de crianças e jovens utilizarem a rede como principal fonte de informação: “Os mais jovens que leem notícias apenas no TikTok não chegam nem perto da verdade. O ódio à imprensa é muito intenso por lá e essas pessoas estão sendo ensinadas a nunca mais ler jornal ou assistir notícias.”
Pedro Tavares
É estagiário de jornalismo na piauí
Nenhum comentário:
Postar um comentário