Wikipedia perde 8% dos visitantes por causa da IA — e o problema é maior do que parece

há 7 horas 6

A Wikipedia está perdendo visitantes reais. Entre março e agosto de 2025, as visitas humanas ao maior repositório colaborativo de conhecimento da internet caíram 8% em relação ao mesmo período de 2024, segundo dados divulgados pela Wikimedia Foundation. A causa está clara: ferramentas de IA agora entregam respostas instantâneas extraídas diretamente do conteúdo da enciclopédia, sem redirecionar usuários ao site original.​

Marshall Miller, diretor sênior de produto da fundação, revelou o dado em post oficial publicado ontem (16). Ele explica que a queda foi identificada após a organização revisar seu sistema de distinção entre tráfego humano e automatizado — uma necessidade surgida depois que picos aparentes de visitantes brasileiros se revelaram, na verdade, enxames de bots rastreadores.

Como a IA está “matando” o tráfego tradicional

i286559

O fenômeno vai além da Wikipedia. Mecanismos de busca como Google e Bing agora exibem respostas geradas por IA diretamente na tela de resultados, eliminando a necessidade de clicar em links externos. Enquanto isso, usuários mais jovens buscam informações no YouTube e TikTok, não em sites tradicionais.

O paradoxo é brutal: enquanto o tráfego humano derrete, as requisições de servidores da Wikipedia explodiram — porque robôs de empresas como OpenAI, Google e Meta vasculham o site sem parar para treinar seus modelos de linguagem. Segundo relatório da Fastly divulgado em agosto de 2025, crawlers de IA representam 80% do tráfego automatizado na web, com a Meta sozinha respondendo por 52% dessa atividade.​

Consequências reais para a sustentabilidade

A queda de visitantes humanos coloca em risco o modelo de sustentação da Wikipedia. A fundação depende de doações individuais feitas por navegantes casuais que, ao acessar o site, decidem contribuir financeiramente. Com menos cliques, há menos doadores em potencial — e custos crescentes com o tráfego de bots, que já consomem 50% da largura de banda da organização.

Além disso, o pool de voluntários que escrevem e editam verbetes pode encolher. Sem engajamento direto com leitores, a motivação para manter o projeto colaborativo tende a diminuir, alerta Miller. É um ciclo vicioso: a IA treina em cima do conhecimento produzido por humanos, mas corrói justamente a base comunitária que alimenta esse conhecimento.​

O dilema ético da IA que não cita fontes

A ironia é desconcertante. Praticamente todos os grandes modelos de linguagem — incluindo ChatGPT, Gemini e Claude — dependem dos dados estruturados da Wikipedia para funcionar. Mas, ao responder perguntas com base nesses dados sem atribuir crédito ou redirecionar tráfego, essas ferramentas estão sufocando sua própria fonte de informação confiável.

A Wikimedia Foundation agora pressiona gigantes da IA para que adotem padrões claros de atribuição e desenvolvam mecanismos que devolvam visitantes ao site original. A organização também negocia frameworks de “IA ética” que incluam compartilhamento de receita ou tráfego.​

O que a Wikipedia está fazendo para reagir

A fundação não é contra a inteligência artificial. Em outubro de 2025, lançou o Wikidata Embedding Project, que converteu 120 milhões de pontos de dados abertos em formato compatível com LLMs — facilitando o treinamento de modelos com informação de alta qualidade e gratuita.​

Paralelamente, a organização experimenta novos canais para alcançar públicos mais jovens. Vídeos no YouTube e TikTok, jogos no Roblox e até chatbots no Instagram fazem parte da estratégia para manter relevância em um ecossistema digital dominado por IA generativa e redes sociais.​

Um problema que vai além da Wikipedia

O caso serve como termômetro para toda a web aberta. Um estudo de março de 2025 do Pew Research Center apontou que usuários do Google expostos a resumos de IA clicam significativamente menos em links originais. Publicações jornalísticas podem perder até 79% do tráfego quando AI Overviews aparecem no topo dos resultados, segundo análise do The Guardian divulgada em julho.​

Sites acadêmicos, repositórios de imagens e blogs especializados relatam sobrecarga de servidores e custos crescentes provocados por bots rastreadores que sugam conteúdo em massa — muitas vezes sem compensação ou transparência. Nos EUA e Europa, já há discussões sobre regulamentações que obriguem empresas de IA a identificar suas ferramentas de scraping e compensar criadores de conteúdo.​

A questão central é sistêmica: se a IA consome conhecimento humano sem nutrir o ecossistema que o produz, o modelo colaborativo da internet — aquele que construiu a Wikipedia, fóruns e comunidades abertas — pode entrar em colapso. O futuro da web depende de encontrar equilíbrio entre inovação e atribuição justa.

Ler artigo completo