SABERES TRANSDISCIPLINARES E ORGÂNICOS.

segunda-feira, 1 de setembro de 2025

Uma rede social mínima povoada inteiramente por agentes de IA, sem mecanismos de recomendação e sem usuários humanos



Uma nova pesquisa do Universiteit van Amsterdam é uma leitura sóbria: mesmo uma rede social mínima povoada inteiramente por agentes de IA, sem mecanismos de recomendação e sem usuários humanos, ainda produziu as mesmas disfunções que vemos em plataformas reais.


Em pouco tempo, os bots se dividiram em campos partidários. A atenção concentrou-se nas mãos de uma pequena elite, e as vozes mais extremas foram amplificadas. Os pesquisadores testaram seis possíveis correções, incluindo feeds cronológicos, ocultação de curtidas, aumento de diversos pontos de vista e algoritmos de ponte. Nenhum impediu a espiral; Em alguns casos, as intervenções pioraram as coisas.

Os pesquisadores consideraram se os próprios agentes carregavam viés. Como os LLMs inevitavelmente o fazem, eles repetiram o experimento com diferentes modelos (GPT-4o, Llama, DeepSeek). Os mesmos resultados surgiram. Como a plataforma foi reduzida ao básico de postar, repostar e seguir, essas não eram peculiaridades de algoritmos, mas comportamentos que emergiram da própria rede.

A mídia social é programada dessa maneira porque sua arquitetura é construída em torno do engajamento reativo. O conteúdo que provoca reações mais fortes, seja indignação, afirmação ou hostilidade, impulsiona a repostagem. As republicações atraem seguidores, amplificando as vozes mais divisivas. Esse ciclo auto-reforçado de engajamento e visibilidade produz naturalmente comunidades insulares, desigualdade de atenção e elevação de extremos.

Essas dinâmicas não são acidentais. As empresas de mídia social empregam mais psicólogos e cientistas comportamentais do que quase qualquer outro setor. As plataformas são projetadas para prender a atenção, explorando as vias de recompensa do cérebro. A indignação e a afirmação mantêm os usuários rolando, o que significa mais anúncios e mais receita. É revelador que muitos executivos dessas empresas restrinjam o uso de seus próprios filhos.

A neurociência mostra como esses mesmos mecanismos também mudam a forma como as pessoas pensam. O envolvimento com conteúdo emocionalmente carregado ativa a via de recompensa da dopamina, o mesmo sistema que sustenta o comportamento viciante (Montag et al., Nature Reviews Psychology, 2021). A linguagem moral-emocional se espalha mais rapidamente online porque gera maior excitação e reforço (Brady et al., PNAS, 2017). A raiva, em particular, desencadeia a amígdala, aumentando a vigilância e desviando a atenção para pistas divisivas (Phelps & LeDoux, Neuron, 2005). Com o tempo, a exposição repetida condiciona os usuários a buscar indignação, estreitando a perspectiva e reforçando padrões polarizados de pensamento.

O estudo torna inevitável uma conclusão: essas patologias não são culpa de nenhuma plataforma, nem simplesmente acidentes do comportamento humano. Eles são resultados estruturais de qualquer sistema de mídia social construído sobre a mecânica de engajamento. Se queremos plataformas que fortaleçam a sociedade e o bem-estar mental em vez de distorcê-lo, a reforma não pode parar na moderação ou nos ajustes do algoritmo. A mudança real requer a reengenharia dos próprios fundamentos do design de mídia social.

hashtagSocialMedia hashtagAI hashtagPolarisation

Nenhum comentário:

Postar um comentário