Google não consegue identificar fakenews (nem mesmo os jornalistas!); IA não deve ser vista como fonte de confirmação de fatos.

Willian Porto
8 Min Read

Em junho de 2025, uma informação aparentemente inofensiva começou a circular nas redes sociais: o volante Japa, jogador do Cruzeiro, seria primo de segundo grau da cantora Rei, integrante do grupo sul-coreano IVE. A afirmação surgiu inicialmente em uma publicação no X (antigo Twitter) e, poucas horas depois, foi reproduzida em página de humor similar no Instagram. Em nenhum dos casos havia indicação de fontes primárias, registros civis ou declarações diretas dos envolvidos.

A narrativa ganhou alcance rapidamente por reunir dois universos populares e pouco conectados: o futebol brasileiro e o K-pop. E por se apoiar em um elemento que transmitia aparência de plausibilidade: o sobrenome japonês compartilhado pelos dois, Naoi. Até então, tratava-se de um boato típico do ambiente digital, restrito à lógica da especulação e do entretenimento, sem qualquer validação jornalística formal.


Como a IA constrói “verdades” sem verificação

Esse episódio evidencia um limite estrutural dos sistemas de IA generativa aplicados à busca. Diferentemente do jornalismo, esses modelos não trabalham com critérios de veracidade, mas com padrões estatísticos de linguagem. Ao identificar que uma mesma informação aparece repetidas vezes em postagens, páginas e perfis distintos, a IA infere consistência e passa a tratar o conteúdo como um dado estabelecido.

O problema se agrava porque a repetição, no ambiente digital, não equivale à comprovação. No caso analisado, uma informação originada em redes sociais foi replicada por páginas de entretenimento e, posteriormente, absorvida pelo sistema de IA. A partir daí, o próprio mecanismo de busca passa a funcionar como agente de legitimação do boato, elevando-o à condição de “fato” aos olhos do público.

- Assine nossa Newsletter -

O jornalismo faz parte do problema

Na quarta, 14 de janeiro de 2026, durante o jogo Cruzeiro x Tombense, pelo Campeonato Mineiro, o narrador da GE TV afirmou o parentesco entre o jogador e IVE, baseando-se no comentário de um internauta.

O próprio clube mineiro ridicularizou o fato, mostrando conteúdo do jogador em que afirma ter primos apenas no Rio Grande do Norte, estado natal de Japa.

Com isso, embora a Inteligência Artificial Generativa, possa ser acusada de amplificar boatos como verdade, os próprios jornalistas também podem ser acusados de não utilizar os meios existentes para verificação de fatos, uma vez que os boatos e páginas de humor que lançam mão desse tipo de conteúdo são mais antigas que a própria IA.

Outro exemplo foi divulgado no programa Aberto ao Público, quando humoristas fizeram uma publicação em que Ana Maria Braga tinha presenteado Gil do Vigor como lhama.

Do boato nas redes à “confirmação” algorítmica

O cenário se altera de forma significativa quando a inteligência artificial passa a atuar como intermediária da informação. Ao realizar uma busca no Modo IA do Google, o sistema apresenta a informação como verdadeira e confirmada, afirmando que o parentesco entre Japa e Rei seria de segundo grau e detalhando, inclusive, que as avós de ambos seriam irmãs.

- Assine nossa Newsletter -

A resposta gerada pelo sistema vai além da simples repetição do boato. Ela incorpora datas, idades, locais de nascimento e trajetórias profissionais, organizando os dados de forma coesa e segura. Para o usuário comum, o formato da resposta transmite autoridade e sugere que houve apuração, quando, na prática, não existe comprovação pública ou fonte primária que sustente a afirmação.

O Google reproduz o Snippet do Instagram:

Já o Modo IA responde taxativamente a pergunta com resposta positiva:

- Assine nossa Newsletter -

Demais chats generativos negam o vínculo

Se o Google, na busca e no Modo IA, afirmam o falso vínculo, ChatGPT e Perplexity negam. O ChatGPT, inclusive, mostra que é um caso de desinformação presente na Internet.

Já Perplexity oferece contexto em que a página esportiva No Ataque informa como o narrador caiu em uma pegadinha.

Para finalizar, a Gemini, do Google, embora confusa, reconheceu que tudo não se passava de sátira.

Inicialmente, ela relacionou o Japa a um cantor:

Provocada, posteriormente, desmentiu o boato corretamente:

Fácil manipular a busca com informações falsas?

O caso mostra como é fácil manipular a busca com informações falsas. Páginas com grande visibilidade tendem a gerar novos conteúdos que confirmam as teses iniciais.

Principalmente no Modo IA e na busca, não parece existir, nesse momento, formas de conferir resultados e apresentar maior confiabilidade às perguntas dos usuários.

Com isso, principalmente, no próximo período eleitoral, desinformações poderão ser confirmadas como verdadeiras.


A aparência de checagem e o efeito de autoridade

Outro ponto crítico está na forma como as respostas são apresentadas. Ao estruturar o conteúdo de maneira organizada e explicativa, a IA simula o estilo de uma verificação jornalística ou enciclopédica. Essa estética informacional cria um efeito de autoridade que mascara a ausência de apuração real.

Quando uma plataforma com o alcance do Google apresenta uma informação como confirmada, a tendência é que ela seja reproduzida por outros sites, criadores de conteúdo e até veículos menores. Esse processo gera um ciclo de retroalimentação: quanto mais a informação é citada, mais “forte” ela se torna para o próprio algoritmo, mesmo que sua base factual continue inexistente.


O impacto para o jornalismo e para o debate público

O caso envolvendo o jogador do Cruzeiro e a cantora do IVE vai além de uma curiosidade pop. Ele revela como a inteligência artificial pode atuar como aceleradora de desinformação ao eliminar etapas essenciais do processo jornalístico, como a checagem de fontes, a contextualização e o contraditório.

Ao confundir agregação de dados com verificação factual, sistemas de IA deslocam a confiança do leitor do jornalismo profissional para respostas automatizadas. Esse movimento enfraquece o ecossistema informativo e amplia o risco de consolidação de narrativas falsas ou imprecisas como verdades aceitas.


Conclusão

O episódio deixa claro que a inteligência artificial não deve ser tratada como verificadora de fatos. Sistemas generativos organizam e amplificam informações já existentes, mas não investigam nem comprovam. Em um cenário no qual buscadores passam a entregar respostas prontas, o papel do jornalismo torna-se ainda mais central: questionar, contextualizar, verificar e expor os limites técnicos da IA. Em tempos de Modo IA, a checagem continua sendo uma tarefa humana — e cada vez mais indispensável.

Publisher e Especialista em SEO | Web |  + posts

Publisher do "Não é Agência!" e Especialista de SEO, Willian Porto tem mais de 21 anos de experiência em projetos de aquisição orgânica. Especializado em Portais de Notícias, também participou de projetos em e-commerces, como Americanas, Shoptime, Bosch e Trocafone.

Compartilhe este artigo