Não é agência! https://naoeagencia.com.br É o que você precisa em SEO e tráfego Fri, 13 Jun 2025 22:57:18 +0000 pt-BR hourly 1 https://naoeagencia.com.br/wp-content/uploads/2025/04/cropped-Captura-de-Tela-2025-04-15-as-11.06.04-e1745534377430-32x32.png Não é agência! https://naoeagencia.com.br 32 32 Reddit cresce 12 vezes em 2 anos; você o usa na sua estratégia? https://naoeagencia.com.br/seo/estudo-de-mercado/2025/06/13/reddit-cresce-12-vezes-em-2-anos-voce-usa-na-sua-estrategia/ Fri, 13 Jun 2025 21:45:22 +0000 https://naoeagencia.com.br/?p=1039 O Reddit, autoproclamado “primeira página da internet”, tem sido um ponto focal de discussão no mundo do SEO(Search Engine Optimization).

Com alegações de um crescimento orgânico fenomenal, aumentando o tráfego estimado em mais de 12x apenas dois anos, a plataforma tem forçado muitos a repensar suas estratégias digitais. Essa explosão de visibilidade sugere que o conteúdo e as discussões geradas pelos usuários estão sendo altamente valorizados pelos motores de busca, especialmente o Google, tornando-se uma fonte rica de informação para quem pesquisa.

A lógica por trás desse crescimento é que o Google, em sua busca por conteúdo original, diversificado e gerado por humanos, começou a dar mais peso às discussões e informações encontradas em fóruns e plataformas como o Reddit.

Diferente de sites corporativos ou blogs otimizados, o conteúdo do Reddit muitas vezes reflete conversas autênticas, experiências reais e opiniões diversas, o que pode ser percebido como um valor inestimável para os usuários que buscam respostas menos “filtradas” ou comerciais.

Crescimento de 17.000% do Reddit em Tráfego Estimado – SEMRush – 2 anos

Acesse grátis a plataforma da SEMRush e veja você também o seu tráfego orgânico estimado.

Em tráfego total e real no Brasil, observe como a empresa tem crescido ao longo dos últimos meses.

Tráfego Geral do Reddit – Aumento de 4x nos últimos 2 anos.
Tráfego Desktop Reddit Orgânico – Aumento de 5x em 2 anos

Quer comprar seu site com o concorrente em cada canal? Ganhe 7 dias grátis para usar a SEMRush e ver onde você precisa melhorar.

A polêmica por trás dos números

Embora o crescimento seja inegável, a sua natureza exata e as implicações são motivos de debate. Há quem diga que o aumento da visibilidade do Reddit nas buscas é menos sobre uma “nova” estratégia da plataforma e mais sobre uma mudança algorítmica do Google. A gigante das buscas tem priorizado o conteúdo gerado por usuários (UGC) e discussões em tempo real, especialmente com a ascensão de modelos de linguagem grandes que se beneficiam de fontes de dados mais ricas e contextuais.

A polêmica reside em vários pontos:

  • Qualidade vs. quantidade: Nem todo conteúdo no Reddit é de alta qualidade ou confiável. A plataforma é conhecida por suas comunidades de nicho, mas também por desinformação e discussões superficiais. A priorização de um volume tão grande de UGC pelo Google levanta questões sobre a curadoria e a veracidade das informações exibidas nos resultados de busca.
  • Dependência de terceiros: Estratégias de SEO baseadas na visibilidade do Reddit dependem fundamentalmente da boa vontade do Google em continuar valorizando esse tipo de conteúdo. Mudanças futuras nos algoritmos podem desfavorecer o Reddit, tornando a estratégia volátil para quem a adota como pilar.
  • Monetização e controle: O Reddit, como qualquer plataforma, busca monetizar seu tráfego. O aumento de sua visibilidade no Google pode levar a decisões que afetam a forma como o conteúdo é apresentado ou acessado, potencialmente limitando o valor para terceiros que tentam capitalizar essa exposição.
  • Spam: Dada a natureza aberta da plataforma, o Reddit é frequentemente alvo de spam, links irrelevantes e conteúdo autopromocional excessivo. Embora a moderação das comunidades tente combater isso, a presença de spam pode comprometer a qualidade percebida dos resultados de busca, especialmente para aqueles que buscam informações confiáveis e imparciais.
Google esticou o Reddit em Tráfego Orgânico

Montando uma estratégia que considere o Reddit

O hype de tentar otimizar a todo custo para LLMs segue, enquanto o Reddit segue menosprezado, mesmo que o último leve mais tráfego. Isso significa que o Reddit é um canal relevante para muitas empresas e ignorá-lo é um erro.

A plataforma é uma mina de ouro para entender o sentimento do consumidor, encontrar nichos de mercado, e identificar palavras-chave de cauda longa que as pessoas realmente usam em suas conversas.

Aqui estão algumas maneiras de incorporar o Reddit em sua estratégia:

  1. Pesquisa de palavras-chave e tópicos: Use o Reddit para descobrir o que as pessoas estão perguntando e discutindo em seu nicho. Subreddits específicos podem revelar jargões, problemas comuns e necessidades não atendidas que podem gerar ideias de conteúdo para seu blog ou site.
  2. Monitoramento de marca e reputação: Acompanhe menções à sua marca, produtos ou serviços. Isso permite que você participe de conversas relevantes, responda a críticas (positivas ou negativas) e gerencie sua reputação online.
  3. Identificação de influenciadores e defensores: Encontre usuários ativos e respeitados em seu nicho. Essas pessoas podem ser potenciais parceiros, colaboradores ou defensores da sua marca.
  4. Engajamento direto e marketing de conteúdo: Participe de discussões de forma autêntica e útil, conversando com as pessoas genuinamente. Evite spam ou autopromoção descarada. O objetivo é gerar tráfego e engajamento ao compartilhar conteúdos úteis e relevantes. Compartilhe seu conteúdo (quando relevante e permitido pelas regras do subreddit) de forma a agregar valor à conversa. O AMA (Ask Me Anything) é um formato popular no Reddit que pode ser usado para gerar interesse e engajamento.
  5. Construção de backlinks (com cautela): Embora o Reddit não seja tradicionalmente uma fonte de backlinks de alta qualidade para SEO direto (os links são nofollow), a visibilidade que ele proporciona pode levar a menções e links em outros sites. O foco deve ser na geração de tráfego e engajamento, o que indiretamente pode levar a backlinks. Além disso, o Reddit tem se tornado uma fonte de dados para respostas diretas na SERP (Search Engine Results Page) e para o treinamento de Inteligências Artificiais Generativas, aumentando sua relevância como repositório de informações.

Em resumo, o crescimento do Reddit em SEO é um reflexo das mudanças na forma como os motores de busca valorizam o conteúdo autêntico e gerado por usuários. Embora haja polêmicas e a necessidade de uma abordagem cautelosa, incorporar o Reddit em sua estratégia pode fornecer insights valiosos, oportunidades de engajamento e, em última instância, contribuir para sua visibilidade online.

Você já pensou em como o Reddit poderia complementar suas táticas de SEO existentes?

]]>
Erich Casagrande e outros especialistas de SEO ensinam a deixar seu site vísivel para as IAs https://naoeagencia.com.br/inteligencia-artificial/2025/06/13/conteudo-invisivel-ia-solucoes/ Fri, 13 Jun 2025 21:25:47 +0000 https://naoeagencia.com.br/?p=1221 Nos últimos meses, os saltos nos avanços das inteligências artificiais transformaram as pesquisas e colocaram o tráfego orgânico de muitos sites em risco. Ser o primeiro link azul apresentado como resultado de uma busca não é mais sinônimo de receber um volume alto de cliques. 

Com a era da Pesquisa Generativa (SGE) e as respostas de IA ganhando força, o objetivo agora, além de ranquear bem na SERP, é ser escolhido como fonte de resposta para os questionamentos dos usuários. 

Ser ignorado pelas IAs significa perder visibilidade e, consequentemente, tráfego qualificado. 

Para construir um conteúdo completo e ir além do “o que fazer” e entender “como funciona”, convidamos três especialistas referências no mercado. Dando o tom da nossa análise, Erich Casagrande (Marketing Manager Lead na Semrush), com o aprofundamento técnico de Liddi Jannke (Especialista em SEO Técnico e Desenvolvedora) e os insights de André Lucas (Especialista em SEO).

Os erros que tornam seu site invisível para a IA

Antes das recomendações, o diagnóstico. Nossos especialistas apontaram que os erros fatais na era da IA são, na verdade, práticas recomendadas de SEO que cobram um preço muito alto quando são ignoradas. 

Conteúdos genéricos e a falta de autoridade 

O ponto de partida para o fracasso, segundo Erich, é a criação de conteúdo sem alma, focado apenas em performance superficial.

“O erro mais comum seria produzir conteúdo que prioriza apenas palavras-chave”, afirma Erich Casagrande. O outro erro comum é não desenvolver conteúdos originais e com autoridade. “Se você vai escrever algo igual ao que todo mundo ‘escreve, sem valor de marca, não tem razão para ser mencionado e qualquer IA pode escrever isso no seu lugar.”

Ele complementa que, além disso, muitos sites “negligenciam dados estruturados, falta de fontes confiáveis e valor de Entidade”, elementos cruciais para a IA validar uma fonte.

Ganhe 7 dias grátis e avalie a estratégia de conteúdo do seu site

O SEO técnico é visto apenas como um checklist 

Além do conteúdo, a forma como o site é estruturado tecnicamente é outro ponto cego. Para Liddi Jannke, o erro é ver o SEO Técnico de forma superficial.

“Falta de estrutura do SEO técnico”, crava Liddi Jannke. “Quando digo estrutura quero ir além de menus e hierarquias de heading tags. SEO técnico, para a grande maioria, representa pagespeed, sitemap e robots […]. No momento em que você olhar o SEO técnico como parte do TODO do SEO […] um novo olhar se abre sobre como os mecanismos de buscas encontram e avaliam o seu site.”

O “Fluff”: textos vazios e que não são objetivos 

Finalmente, mesmo com bom conteúdo e técnica, a falta de objetividade pode anular os esforços. André Lucas chama a atenção para o “fluff”.

“O erro mais comum é não ser objetivo”, aponta André Ribeiro. “Frases ou parágrafos que não acrescentam informação relevante […], servindo apenas para aumentar o tamanho do texto, é um vício dos redatores e pode confundir a IA, quando ela escanear o conteúdo […]. A IA vai dar o resultado imediato pro usuário, ou você é objetivo, direcionado a responder dúvidas ou está fora do jogo.”

Os 3 pilares para otimizar o seu conteúdo para IA 

Identificados os problemas, as soluções convergem para três pilares: Clareza, Profundidade Técnica e Autoridade Real.

1. Comece pela Clareza: Estrutura e Respostas Diretas

A solução começa pela organização do conteúdo. Para Erich Casagrande, a clareza é inegociável.

“Estruturar o conteúdo com clareza, usando headings hierárquicos (H1, H2, H3) para facilitar a compreensão e segmentação por modelos de linguagem. Responder a perguntas com frases diretas e parágrafos claramente escritos e organizados”, recomenda Erich.

Essa estrutura, por sua vez, deve ser preenchida com o que André Lucas chama de mentalidade “answer-driven”, ou seja, focada em responder diretamente às dúvidas do usuário.

2. Aprofunde na técnica: Dados Estruturados como diferencial

Para corrigir o erro de “negligenciar dados estruturados” apontado por Erich, é preciso ir além do básico. É aqui que a visão de Liddi Jannke se torna um grande diferencial.

“Acompanhando SEOs internacionais compartilhando testes, um dos grandes diferenciais […] são dados estruturados”, explica Liddi. “E aqui não estou falando sobre os tradicionais article, organization, product… Quando você estrutura o seu conteúdo com schemas completos e diferenciados, os mecanismos de buscas entendem o que você realmente deseja entregar e para quem.”

Ela lembra que o E-E-A-T foi um aviso do que estava por vir, e que o diferencial para dar clareza para as IAs é a resposta: “Talvez o diferencial dessa clareza esteja em um pequeno script esquecido junto ao tradicional SEO técnico.

3. Construa e demonstre autoridade real

O pilar final é a construção de uma autoridade que a IA possa verificar. O princípio, para Erich Casagrande, é simples:

“Escreva algo que vale a pena de verdade para seu usuário e de acordo com sua identidade de marca”, ele aconselha.

Essa autoridade é confirmada, como alerta André Lucas, por um processo de “triangulação de informações” que a IA faz em fontes externas. Ele adverte: “Não basta parecer uma fonte boa de informação, você tem de realmente ser digno de autoridade. Se você não tiver um bom produto ou não tratar bem seus clientes, esses maus relatos vão acabar chegando à internet e a IA pode escolher não te usar como fonte, por não julgar confiável”.

Criar um conteúdo de valor ainda é a melhor estratégia

A otimização para IA, portanto, não é sobre truques novos. É sobre a execução impecável dos fundamentos: criar conteúdo original e valioso, como insiste Erich; estruturá-lo com a clareza técnica defendida por Liddi; e responder ao usuário com a empatia e objetividade propostas por André. A era da IA é a era da autoridade e do valor real.

Como Erich Casagrande finaliza, é preciso criar algo que “vale a pena de verdade para seu usuário”. Sua recomendação ecoa por todos os outros conselhos, porque, no fim das contas, “todo o resto, qualquer um pode escrever por conta e não precisa de referências para isso”.

Para o Erich Casagrande, marketing manager lead na Semrush, o problema envolve o conteúdo. 

O erro mais comum seria produzir conteúdo que prioriza apenas palavras-chave, e nenhuma novidade nisso, pois isso é um erro mesmo antes do boom de LLMs. Não se pode ignorar a intenção real do usuário e a direta resposta a essa intenção — especialmente para buscas informacionais.”

Além disso, Erich Casagrande também cita a falta de originalidade e autoridade como um dos erros mais comuns quando falamos sobre a criação de conteúdos: 

“O outro erro comum é não desenvolver conteúdos originais e com autoridade, se você vai escrever algo igual ao que todo mundo escreve, sem valor de marca, não tem razão para ser mencionado e qualquer IA pode escrever isso no seu lugar.”

Problemas no conteúdo também são citados pelo André Lucas, especialista em SEO. A IA busca entregar a resposta de forma direta e curta para o usuário e, segundo ele, muitos conteúdos falham nesse ponto. 

“O erro mais comum é não ser objetivo. Frases ou parágrafos que não acrescentam informação relevante nem aprofundam o assunto, servindo apenas para aumentar o tamanho do texto, é um vício dos redatores que defendem como sendo “estilo”.

Para Liddi Jannke, especialista em SEO Técnico e desenvolvedora, a parte técnica do site tem um papel essencial para que o seu conteúdo não seja invisível para as IAs:

Falta de estrutura do SEO técnico. Quando digo estrutura quero ir além de menus e hierarquias de heading tags. SEO técnico, para a grande maioria, representa pagespeed, sitemap e robots, porém ele tem uma parcela muito maior na responsabilidade de visibilidade, ou seja, ele deve fazer sentido com o conteúdo que você entrega!

No momento em que você olhar o SEO técnico como parte do TODO do SEO, e não apenas uma lista de erros que as ferramentas de SEO trazem (obrigada ferramentas, vocês nos ajudam muito aqui!), um novo olhar se abre sobre como os mecanismos de buscas encontram e avaliam o seu site como qualificado para a IA”.

Os sites erram deixando de fazer coisas que já eram recomendadas até antes mesmo da explosão de IAs no dia a dia dos usuários. A criação de conteúdos sem autoridade, originalidade e a negligência da parte de técnica de SEO, ao não vê-la como um todo e fundamental para as estratégias de SEO. 

Quais são as recomendações dos especialistas?

Como é normal, a cada novo avanço ou mudança, todos os dias surgem novas dicas, estratégias e sugestões do que fazer para conseguir aparecer com mais frequência nas IAs, mas o que realmente é útil e o que é apenas barulho? 

Além de prestar uma atenção especial nos dados estruturados e entidades, o Erich Casagrande aconselha produzir seus conteúdos de forma organizada e clara: 

“Estruturar o conteúdo com clareza, usando headings hierárquicos (H1, H2, H3) para facilitar a compreensão e segmentação por modelos de linguagem. Responder às perguntas com frases diretas e parágrafos claramente escritos e organizados. Usar dados estruturados para facilitar a identificação de entidades, autores, contextos e referências. E escreva algo que vale a pena de verdade para seu usuário e de acordo com sua identidade de marca”.

A ideia de clareza e organização clara dos conteúdos também é o que a Liddi Jannke sugere. 

“Acompanhando SEOs internacionais compartilhando testes, um dos grandes diferenciais, quando olhamos para o SEO técnico, são dados estruturados. E aqui não estou falando sobre os tradicionais article, organization, product… Quando você estrutura o seu conteúdo com schemas completos e diferenciados, os mecanismos de buscas entendem o que você realmente deseja entregar e para quem você quer chegar.”

Como exercício de reflexão, a profissional também comenta sobre como a página certa precisa aparecer no momento certo para o usuário:

“Pense comigo: uma marca trabalha com um produto. Ela terá palavras-chave e conteúdos dessa palavra-chave do produto na home, no produto, na categoria, no blog… E ao pesquisar sobre, seus conteúdos de blog surgem ao invés do seu serviço, tão necessário posicionar para manter um negócio funcionando — financeiramente.”

Além de comentar que, apesar dos avanços da IA, eles ainda são “eles ainda são uma sequência de códigos decifrando nossos conteúdos e tentando adivinhar o que melhor se encaixa em suas respostas”. 

O especialista André Lucas sugere que a produção de conteúdo seja “answer-driven” e foque sempre em responder de forma direta e objetiva aos questionamentos dos usuários. Outras recomendações que ele comenta são testar o uso de dados estruturados e as menções ao seu site na internet. 

“Pense na pergunta que você faria e a dê a resposta que você gostaria de receber, completa[…] Seja sempre answer-driven e bem objetivo. Isso é ouro na hora de produzir o conteúdo.”

]]>
Problemas no Discover relatados ontem foram corrigidos; indexação também foi afetada https://naoeagencia.com.br/seo/discover/2025/06/13/problemas-no-discover-relatados-ontem-foram-corrigidos-indexacao-tambem-foi-afetada/ Fri, 13 Jun 2025 12:01:44 +0000 https://naoeagencia.com.br/?p=1213 Ontem, 13, o Google relatou problemas, principalmente, com o serviço de Discover.

Além disso, grandes portais de notícias internacionais também tiveram dificuldades em indexar novos conteúdos pela noite.

Depois de um pouco mais que 5 horas, os problemas foram resolvidos, segundo o Google.

O Google Divulga que não haverá mais atualizações.

]]>
Google relata problemas no serviço de Discover; resultados podem ser afetados https://naoeagencia.com.br/seo/2025/06/12/google-relata-problemas-no-servico-de-discover-resultados-podem-ser-afetadas/ Thu, 12 Jun 2025 20:50:49 +0000 https://naoeagencia.com.br/?p=1208 Google divulgou problemas relacionados com Google Lens, Discover e Voice Search. Alguns usuários foram impactados. Não sabemos em quais regiões especificamente o problema ocorre.

De toda forma possíveis anomalias no tráfego podem ser explicadas por este evento. Entretanto, não conseguimos encontrar anomalias em nossos testes no Brasil.

Problemas no Discover podem estar relacionados à queda gera?

É bastante provável que a possível interrupção do Google Discover esteja relacionada com a instabilidade generalizada da internet que afetou diversos serviços online nesta quinta-feira (12).


Queda geral

A internet enfrentou um dia difícil nesta quinta-feira (12), com quedas que afetaram grandes áreas e prejudicaram o funcionamento de serviços essenciais como Google, Amazon, Spotify e Discord. As reclamações começaram por volta das 14h30 (horário de Brasília), impactando desde serviços de computação em nuvem, como Cloudflare e Google Cloud, até plataformas amplamente utilizadas.

O Google, por exemplo, ficou instável. Por volta das 15h40 (horário de Brasília), o site Downdetector, que monitora o funcionamento de serviços online, registrava cerca de 1.270 reclamações de falhas, com as principais queixas focando em login (42%)websites (35%) e busca (23%). O Google Cloud, o serviço em nuvem da empresa, teve um número ainda maior de queixas, ultrapassando 2.500 no mesmo período.


Serviços afetados

A instabilidade não se restringiu ao Google. Amazon, Spotify, Discord, Cloudflare, OpenAI, Azure, Character.ai e até Pokemon Go registraram um aumento significativo no número de erros no Downdetector. Embora as reclamações tenham disparado por volta das 15h, elas já demonstravam uma queda por volta das 16h20.

Tanto o Google Cloud quanto a Cloudflare, provedores de serviços em nuvem essenciais, confirmaram a instabilidade e o impacto em seus clientes. A Cloudflare informou que a situação começou a normalizar por volta das 16h12, atribuindo o problema a uma “interrupção de terceiros”. Já o Google Cloud divulgou que seus engenheiros identificaram a raiz do problema e estavam aplicando as devidas medidas, embora sem previsão de reestabelecimento total. Locais no Brasil, incluindo São Paulo, foram listados entre as áreas afetadas.


O motivo

Até o momento, o motivo exato da queda generalizada ainda não foi divulgado. Em casos de instabilidade como este, a expectativa é que os serviços sejam reestabelecidos dentro de algumas horas. A diminuição no número de erros no Downdetector já é um indicativo positivo de que alguns serviços afetados estão começando a retornar.

]]>
GEO? Estudo do Ahrefs mostra que a interseção entre LLMs é baixa; é possível, de forma genérica otimizar para elas? https://naoeagencia.com.br/inteligencia-artificial/2025/06/12/geo-estudo-do-ahrefs-mostra-que-a-intersecao-entre-llms-e-baixa-e-possivel-de-forma-generica-otimizar-para-elas/ Thu, 12 Jun 2025 20:30:31 +0000 https://naoeagencia.com.br/?p=1202 A ascensão dos Large Language Models (LLMs) e dos assistentes de Inteligência Artificial (IA) tem revolucionado a forma como consumimos e interagimos com a informação online. De respostas rápidas a resumos complexos, essas ferramentas estão moldando, inegavelmente, o futuro da busca.

No entanto, uma questão crucial se impõe aos profissionais de SEO: a interseção entre as fontes citadas por diferentes LLMs é realmente tão baixa quanto parece? E, se a fragmentação é a regra, como podemos, de fato, otimizar nosso conteúdo de forma genérica para aparecer nas respostas desses assistentes?

Um estudo recente do Ahrefs Brand Radar, abrangendo mais de 76 milhões de AI Overviews do Google, 957 mil prompts do ChatGPT e 953 mil prompts do Perplexity em junho de 2025, revela um cenário surpreendente, e por vezes desanimador: apenas 14% das 50 principais fontes mencionadas são compartilhadas entre ChatGPT, Perplexity e Google AI.

Dos sites que se sobrepõem, meros 7 estão no top 50 de todos eles. Essa baixa interseção não é apenas uma estatística; ela aponta para uma realidade complexa e desafiadora, exigindo uma compreensão aprofundada das particularidades de cada sistema e, consequentemente, estratégias de otimização muito mais adaptativas.

É possível ir para todos os caminhos ao mesmo tempo? Aparentemente, é uma tarefa difícil.

Por que as diferenças? Metodologia e vieses inerentes aos LLMs

As distintas metodologias e os vieses de treinamento são os grandes arquitetos por trás da acentuada baixa sobreposição de fontes. Cada plataforma escolhe suas citações de maneiras intrinsecamente diferentes:

  • Perplexity: Opera com buscas em tempo real na web, ranqueia, cita e extrai as melhores fontes correspondentes de forma pragmática.
  • ChatGPT (com navegação): Realiza pesquisa, mas filtra por domínios confiáveis e/ou licenciados antes de citar, o que já introduz um filtro significativo.
  • ChatGPT (padrão): Por padrão, não oferece citações, a menos que pré-construídas em seu treinamento, elevando o risco de alucinações, um problema constante.
  • Google AI Overviews: Extrai informações do seu vasto índice de busca e oferece uma lista de citações curadas, refletindo sua própria lógica de relevância.
  • Bing Copilot: Utiliza a busca do Bing, destaca trechos e inclui citações, alavancando sua própria infraestrutura de busca.

Além das metodologias, os vieses intrínsecos introduzidos pela base de dados de treinamento e por parcerias estratégicas desempenham um papel decisivo:

  • Google AI Overviews: Tende a favorecer os mesmos sites de alta autoridade que já dominam os resultados de busca tradicionais. Há uma forte ênfase em saúde, finanças, conhecimento enciclopédico e mídias sociais, somada a uma inclinação natural para propriedades do próprio Google. Curiosamente, e para muitos, de forma preocupante, sites de mídia e e-commerce não-Google são notavelmente ausentes.
  • ChatGPT: Inclina-se mais para publishers e mídias não-Google, especialmente em notícias, entretenimento e esportes, um reflexo direto de acordos de licenciamento e parcerias. Há pouca menção a sites de saúde ou medicina.
  • Perplexity: Puxa de um corpus internacional mais amplo, surpreendendo com a inclusão de muitas marcas locais e regionais que simplesmente não aparecem no top 50 dos outros assistentes. Contudo, carece de sites sociais e da mídia ocidental tradicional.

Outro fator crucial é o comportamento dos sites frente aos bots de IA. Alguns optam por bloquear esses robôs, enquanto outros, como o Google, são capazes de renderizar JavaScript, o que inevitavelmente influencia a forma como o conteúdo é percebido e citado. A ausência de um “algoritmo universal de LLM” para otimização torna o cenário ainda mais complexo, exigindo estratégias diversificadas e, por vezes, paradoxais.

Fonte: Ahrefs – Divulgação

Destaques brasileiros

No Brasil, Globo, ESPN e Uol são citadas por Google, ChatGPT e Perplexity. Enquanto isso, TechTudo é apresentado por Perplexity. Tua Saúde tem destaque em AI Overviews e Perplexity.

Uol também é destaque em ChatGPT:

Uol aparece em destaque para menções de ChatGPT – Fonte: ahrefs – Divulgação

Quem é mais citado? Uma análise crua dos dados

O estudo do Ahrefs Brand Radar destrincha as 10 principais fontes citadas em cada assistente de IA, utilizando métricas como “Mention Share” (a frequência com que o modelo escolhe um domínio) e “Impression Share” / “Potential Reach” (menções ponderadas pelo volume de busca do Google para estimar a visibilidade e o alcance potencial).

Destaques do Mention Share:

  • Wikipedia domina de forma esmagadora os três assistentes, mas é mais citada pelo ChatGPT (16,3%), seguido por Perplexity (12,5%) e Google AI Overviews (8,4%). Um lembrete da importância de conteúdo enciclopédico.
  • YouTube é um claro favorito em Perplexity (16,1%) e AI Overviews (9,5%), mas está inexplicavelmente ausente do top do ChatGPT, revelando um dos vieses notáveis.
  • Reddit e Quora aparecem de forma proeminente apenas no Google AI Overviews (7,4% e 3,6%, respectivamente), indicando uma preferência do Google por sites de conteúdo gerado pelo usuário, uma via que pode ser explorada.
  • Canais de notícias como ReutersApple News (AP) e AS.com são proeminentes no ChatGPT (4% – 2,6%), mas secundários ou ausentes nos outros. O ChatGPT demonstra uma clara afinidade com sites de notícias, talvez devido a parcerias de conteúdo.
  • Sites de saúde/médicos (Mayo ClinicCleveland Clinic) são citados nos AI Overviews, mas não aparecem no top 10 de ChatGPT ou Perplexity, levantando questões sobre a profundidade da cobertura de saúde em outras plataformas.

Os desafios para pequenas e médias empresas (PMEs): uma batalha desigual

A complexidade e a necessidade de recursos para uma otimização abrangente para todas as LLMs colocam as PMEs em uma situação particularmente desafiadora – uma batalha desigual. Com orçamentos e equipes limitadas, é extremamente difícil para essas empresas implementar todas as estratégias necessárias para ganhar a atenção de múltiplos assistentes de IA.

Enquanto grandes corporações podem investir em equipes dedicadas e ferramentas avançadas para monitorar e otimizar para cada plataforma, as PMEs são forçadas a ser mais seletivas e estratégicas, priorizando os LLMs mais relevantes para seu público e nicho, ou, por vezes, aceitando a invisibilidade em alguns canais.

Visibilidade através de plataformas de conteúdo gerado pelo usuário: o lado B

Um ponto notável, e para alguns, preocupante, no cenário atual é a possibilidade de obter visibilidade em algumas LLMs focando em plataformas de conteúdo gerado pelo usuário, como Reddit e Quora, e até mesmo LinkedIn.

Como o estudo do Ahrefs indica, o Google AI Overviews, por exemplo, demonstra uma clara preferência por esses sites. Isso tem levado alguns a direcionar esforços para gerar conteúdo (por vezes, de forma agressiva ou até mesmo “spammy” pelos padrões tradicionais de SEO) nessas plataformas para tentar capturar a atenção dos LLMs e, consequentemente, a visibilidade.

Dessa forma, a linha entre a participação genuína e o “spam” é tênue, e a priorização da qualidade e do valor real ainda é o caminho mais seguro e ético, mesmo que os atalhos tentem nos desviar.

Estratégias chave para otimização genérica eficaz: um guia para navegar no caos

Apesar dos desafios, algumas estratégias se mostram mais resilientes e eficazes em um ambiente tão volátil.

  • Foco em entidades e semântica: Os LLMs não se limitam a palavras-chave; eles compreendem “entidades” (pessoas, lugares, objetos, conceitos) e suas relações contextuais. Otimize seu conteúdo para entidades, garantindo que seu nome de marca e termos relacionados sejam usados de forma consistente em diversos canais. A consistência das citações NAP (Nome, Endereço, Telefone) também é crucial.
  • Conteúdo de alta qualidade e profundidade: LLMs favorecem conteúdo que seja claro, profundo e original. Procure ser a “fonte canônica” em seu nicho. Inclua dados originais, estudos de caso, insights exclusivos, estatísticas verificadas e citações de especialistas. Vá além do nível superficial, utilizando métricas, blocos de código, tabelas, listas e diagramas para adicionar valor substancial.
  • Estruturação para extração: Conteúdo bem estruturado é mais facilmente processado e extraído pelos LLMs. Utilize uma hierarquia de títulos clara (H1, H2, H3), parágrafos curtos e diretos, listas e bullet points, e definições concisas para conceitos chave. Embora o Schema Markup não impacte diretamente a visibilidade nos LLMs, ele continua sendo uma boa prática de SEO tradicional e ajuda a reforçar o significado do seu conteúdo.
  • Autoridade e confiança (E-E-A-T): Os LLMs tendem a confiar em fontes com alta Experiência, Especialização, Autoridade e Confiabilidade. Construa e demonstre sua autoridade no setor através de credenciais de autores, backlinks de fontes confiáveis e menções recorrentes em diferentes contextos online. Mantenha seu conteúdo atualizado regularmente.
  • Conteúdo multi-modal e conversacional: Adapte seu conteúdo para as novas formas de busca. Otimize para busca por voz, utilizando linguagem natural e respondendo a perguntas diretas. Para conteúdo visual, garanta que imagens tenham alt text descritivos e que vídeos possuam transcrições completas, tornando-os compreensíveis para as IAs.
  • Crawlability e indexability: Assegure que os crawlers de IA possam acessar e indexar seu conteúdo. Para sites que utilizam JavaScript, considere Server-Side Rendering (SSR), Static Site Generation (SSG) ou Incremental Static Regeneration (ISR) para expor HTML estático, já que a maioria dos crawlers de IA não executa JavaScript de forma completa.
  • Monitore e adapte: O cenário da IA está em constante evolução. Monitore, incessantemente, como os LLMs respondem às consultas relacionadas ao seu setor e ajuste sua estratégia conforme necessário. Faça testes regulares, formulando diferentes perguntas para várias IAs e observando os resultados com um olhar crítico.

Uma questão de estratégia

A baixa interseção de fontes entre diferentes LLMs, embora desafiadora e, para muitos, um sinal de uma fragmentação complexa, não inviabiliza completamente a otimização genérica.

Isso indica que os profissionais terão que fazer escolhas ao longo do caminho. Quais são as LLMs mais interessantes para meu público? Quais delas tem um nível de retorno mais aceitável? Sabe-se, por exemplo, que o GPT tende a levar mais pessoas para os sites.

Dessa forma, a melhor escolha para uma empresa, provavelmente, não será para outra. E, na maior parte dos casos, otimizações genéricas não terão o efeito necessário.

É crucial entender que dificilmente haverá um conjunto de práticas que garantam resultados em todas as LLMs simultaneamente. As diferenças em suas arquiteturas, dados de treinamento e vieses intrínsecos implicam que a otimização para um sistema pode não ser ideal para outro.

Além disso, a natureza dinâmica e em constante evolução dessas tecnologias significa que não é simples garantir que elas mantenham o mesmo conjunto de regras ou comportamentos ao longo do tempo. O que funciona hoje pode não funcionar amanhã.

Ao focar na criação de conteúdo de alta qualidade, semanticamente rico, bem estruturado, e que demonstra autoridade e confiança, as marcas podem, sim, aumentar significativamente suas chances de serem citadas e recomendadas pelos assistentes de IA.

O campo é novo e desafiador, especialmente para as PMEs, que enfrentam uma realidade de recursos limitados, e necessitará de amplo acompanhamento para as melhores tomadas de decisão.

]]>
Jornalismo e portais de conteúdo no futuro: como encarar as recentes mudanças no cenário nacional e internacional? https://naoeagencia.com.br/seo/portais-de-noticia/2025/06/11/jornalismo-e-portais-de-conteudo-no-futuro-como-encarar-as-recentes-mudancas-no-cenario-nacional-e-internacional/ Wed, 11 Jun 2025 23:27:10 +0000 https://naoeagencia.com.br/?p=1198 Em um cenário digital em constante ebulição, a única certeza é que o futuro dos portais de conteúdo e do jornalismo não terá espaço para clickbait e conteúdo sem valor agregado.

A sobrevivência e a relevância estarão atreladas à capacidade de inovar, entregar profundidade e construir um relacionamento genuíno com a audiência. Mas, afinal, como os grandes nomes do jornalismo moderno têm se adaptado a essa realidade?

O caso do Washington Post nos oferece insights valiosos.

O Washington Post e a necessidade de reestruturação

O Washington Post, uma das mais respeitadas publicações globais, está no centro de uma profunda “transformação da redação”.

Recentemente, a empresa ofereceu um programa de desligamento voluntário (VSP) a funcionários com mais de 10 anos de casa, uma medida que visa reestruturar equipes e alinhar a operação às novas demandas do mercado.

Departamentos como vídeo e edição estão sendo reorganizados, com um foco crescente em “formatos mais direcionados a personalidades para o YouTube” e a consolidação de equipes de edição em um “hub de notícias central” para otimizar “velocidade e qualidade” de seus produtos digitais.

Essa movimentação, embora descrita como uma oportunidade para os funcionários, reflete os desafios financeiros enfrentados pela publicação, que, segundo relatos, perdeu US$ 100 milhões em 2024 e viu jornalistas renomados migrarem para concorrentes como The New York Times e The Atlantic.

A aquisição por Jeff Bezos em 2013, embora tenha injetado capital e inovação, não isentou o Post da necessidade de reimaginar seu modelo de negócio diante da “velocidade da mudança tecnológica, o cenário em evolução da indústria e a necessidade sempre presente de produzir e promover um jornalismo forte, rigoroso e independente”.

Isso nos coloca em um dilema de difícil resolução: acelerar em testes que ajudem a manter negócios, reputações e relevância em crescimento, enquanto se pratica jornalismo.

É fácil, por exemplo, escolher a monetização a qualquer custo. No Brasil, temos vários exemplos de quem esqueceu a qualidade editorial. Por outro lado, é simplista defender uma bandeira de jornalismo com equipes de qualidade, mas que não são vistas nem se monetiza ao longo do tempo.

Por isso, os tempos se tornam tão difíceis. Não é possível escolher apenas um dos caminhos. Ambos são necessários.

Como disse Flávio Moreira:

Frio. Impiedoso. Talvez necessário. (…)

O Post quer crescer em audiência, redes sociais, dados e vídeo. E isso exige flexibilidade, reinvenção e uma nova mentalidade.

No centro dessa transformação está uma mudança de paradigma: sair da produção massiva e genérica para conteúdos mais autorais, recorrentes e centrados em personalidades. Vídeos não são mais apenas suporte. Agora são produto.

O impacto do Google e a ascensão da IA na distribuição de conteúdo

As mudanças no Washington Post não são um caso isolado, mas um sintoma de um desafio global, intensificado pelas estratégias das grandes plataformas de tecnologia, como o Google. Recentemente, o Google tem experimentado com a forma como o conteúdo é apresentado, como a troca de títulos por trechos de textos no Discover. A empresa alega que isso promove um “ecossistema saudável” e mantém as pessoas por mais tempo nos artigos, desencorajando o clickbait.

Contudo, a realidade tem sido mais complexa, especialmente com as “Google AI Overviews” (Resumos de IA do Google). Essas respostas geradas por inteligência artificial diretamente nos resultados de busca têm causado uma “redução impactante nas taxas de cliques (CTR)” para grandes editores, mesmo para aqueles na primeira posição orgânica. O Mail Online, por exemplo, registrou quedas de CTR de 13% para menos de 5% no desktop e de 20% para 7% no celular quando uma AI Overview estava presente.

Apesar de o Google afirmar que os links incluídos nas AI Overviews recebem mais cliques, dados de terceiros indicam um “aumento maciço” nas buscas “zero-click”, onde o usuário encontra a resposta diretamente no resultado da busca e não clica em nenhum link.

A iminente chegada do “AI Mode”, uma versão mais conversacional e similar ao ChatGPT, aprofunda essa preocupação, prometendo responder a “perguntas mais complexas que antes exigiriam várias buscas” e potencialmente fornecendo informações tão completas que a necessidade de cliques nos links é eliminada. Isso ameaça “engolir o tráfego por atacado” e exige que os editores encontrem “um modelo de negócio diferente que lhes permita monetizar esse conteúdo”.

Por isso, as empresas precisam ser mais dinâmicas, procurando sua própria natureza, abandonando, talvez, aquilo que não as permitirá seguir firmes no futuro.

A reestruturação do Business Insider e a dependência algorítmica

Outro exemplo claro dessa transformação é o Business Insider, que demitiu 21% de seu quadro de funcionários em uma reestruturação estratégica que inclui um “foco renovado em seu público principal e uma integração agressiva da Inteligência Artificial (IA) em suas operações”.

A CEO Barbara Peng admitiu que 70% do negócio possui “algum grau de sensibilidade ao tráfego” e que a empresa precisa ser capaz de “suportar quedas extremas de tráfego fora de nosso controle”. Essa vulnerabilidade crônica à dependência de plataformas como o Google é um alerta.

Apesar da promessa de que a IA ajudará a “trabalhar mais rápido, de forma mais inteligente e melhor”, as demissões em massa levantam a questão da linha tênue entre otimização e substituição da mão de obra humana.

O sindicato dos funcionários criticou a menção à IA como “insensível” e um reflexo do “pivô descarado da [empresa controladora] Axel Springer para longe do jornalismo e em direção à ganância”.

É interessante notar que, enquanto o Business Insider busca reduzir a dependência algorítmica e focar em suas forças, a realidade no Brasil é, por vezes, oposta. Muitos portais nacionais têm optado por terceirizar diretórios sem controle editorial, aumentando ainda mais a dependência de algoritmos e comprometendo o valor jornalístico e o branding da marca.

Por mais que possamos criticar a decisão da CEO, precisamos concordar que a ousadia é válida e importante. Em cenários tão desafiadores, permanecer com as mesmas estratégias focadas nas oscilações de pesquisa é tão arriscado quanto mudar.

O cenário brasileiro: casos de Inteligência Financeira e Jovem Nerd

A crise no jornalismo digital não se limita às grandes publicações internacionais. No Brasil, o fechamento de projetos como Inteligência Financeira (IF), do Itaú, e NerdBunker (Jovem Nerd), da Magalu, acende um alerta significativo.

O Inteligência Financeira, apesar de um projeto com bons conteúdos, “nunca decolou, de fato” em termos de audiência, chegando a ter menos tráfego do que domínios especializados em clickbait e fake news. O Jovem Nerd, por sua vez, apresentava certa estabilidade, mas mesmo pequenas quedas em um cenário de custos crescentes podem comprometer a continuidade de projetos.

Esses casos reforçam a ideia de que “conteúdo é democracia e cultura”, não uma mera commodity. Ele é a base para a reflexão, o senso crítico e a tomada de decisões informadas. Desincentivar a produção de conteúdo de qualidade é minar a vitalidade cultural e os alicerces da própria democracia.

A situação é tão desafiadora que, conforme sugerido por um engenheiro do Google, os portais de notícia no futuro poderão se tornar organizações sem fins lucrativos.

O fio condutor: desafios comuns e a urgência da mudança

Ao analisar os casos do Washington Post, Business Insider e as recentes dificuldades de Inteligência Financeira e Jovem Nerd no Brasil, percebemos um fio condutor de desafios que transcendem as particularidades de cada publicação ou mercado. Todos esses projetos, em maior ou menor grau, estão lidando com as seguintes problemáticas:

  1. Pressão financeira e cortes: A dificuldade em manter a rentabilidade no ambiente digital é onipresente. Perdas financeiras, a necessidade de cortar custos e a reestruturação de equipes tornaram-se uma realidade dura para muitos, levando a programas de desligamento voluntário ou demissões em massa.
  2. Impacto avassalador da inteligência artificial: As inovações no campo da IA, especialmente as “AI Overviews” e o “AI Mode” do Google, estão fundamentalmente alterando a forma como os usuários consomem informação. A queda acentuada nas taxas de cliques e o aumento das buscas “zero-click” mostram que o tráfego direto para os portais está sendo erodido, exigindo que os editores repensem sua proposta de valor.
  3. Vulnerabilidade à dependência algorítmica: Anos de otimização para algoritmos de busca e redes sociais criaram uma dependência perigosa. Mudanças nas políticas ou no funcionamento dessas plataformas podem devastar o tráfego da noite para o dia, expondo a fragilidade de modelos de negócio que não priorizam o relacionamento direto com o leitor.
  4. Crise do modelo de negócios tradicional: A publicidade digital, embora ainda relevante, não é mais suficiente para sustentar operações jornalísticas robustas. A necessidade de diversificar as fontes de receita torna-se imperativa, buscando modelos de assinatura, eventos, licenciamento e outras formas de monetização que não dependam exclusivamente do volume de tráfego.
  5. Ameaça ao jornalismo de qualidade: Em um cenário de escassez de recursos e competição algorítmica, o jornalismo investigativo, aprofundado e de alto valor agregado, que é caro de produzir, enfrenta dificuldades para encontrar sua sustentabilidade. A tendência de priorizar conteúdo rápido e otimizado para cliques, mesmo que de baixa qualidade, agrava esse quadro.
  6. A importância urgente da marca e relacionamento: Aqueles que estão conseguindo resistir demonstram a importância de uma marca forte e de uma base de leitores leais. As “buscas de marca” e o conteúdo “inreplicável por IA” (como análises aprofundadas e colunistas) são os mais resilientes, reforçando a necessidade de construir comunidades engajadas e um vínculo direto com a audiência.

Esses pontos em comum destacam que a crise no jornalismo digital não é isolada, mas sistêmica. A resposta a ela exige uma mudança profunda e estratégica, que vá além de ajustes pontuais e foque na construção de um futuro mais sustentável para a informação de qualidade.

Reimaginando o futuro: estratégias essenciais para editores

Diante desse cenário desafiador, com o tráfego de busca tendendo a diminuir, os editores precisam repensar fundamentalmente suas estratégias. Algumas abordagens são cruciais:

  1. Construção de relacionamentos diretos e comunidades engajadas: O foco deve se deslocar da perseguição volátil por tráfego de referência para a construção de uma base de leitores leais. Isso implica investir em newsletters de qualidade, programas de membros, fóruns de discussão e outras iniciativas que fomentem um senso de pertencimento.
  2. Especialização e proposta de valor única: Em um mar de informações genéricas, a diferenciação é chave. Veículos que se aprofundam em nichos específicos, oferecendo expertise, análises originais e perspectivas únicas, têm maior chance de atrair e reter um público disposto a pagar. O conteúdo inreplicável por IA, como colunistas e blogs ao vivo, é uma vantagem competitiva.
  3. Diversificação inteligente de receitas: A dependência excessiva da publicidade é arriscada. Modelos de assinatura, conteúdo premium, eventos, licenciamento de conteúdo e até filantropia precisam ser explorados e combinados de forma criativa.
  4. Uso ético e estratégico da IA: A Inteligência Artificial pode ser uma aliada poderosa, auxiliando na análise de dados, personalização da experiência do usuário e otimização de fluxos de trabalho. No entanto, seu papel deve ser o de aumentar a capacidade dos jornalistas, e não o de substituí-los nas tarefas essenciais de apuração, checagem e construção de narrativas.

Agir agora para um jornalismo sustentável

As demissões no Business Insider, as reestruturações no Washington Post e o fechamento de portais no Brasil são sintomas de uma indústria em profunda transformação. A “aposta total na IA” e as “reestruturações” são tentativas de adaptação, mas também um reflexo das pressões financeiras e da dificuldade em escapar da armadilha da dependência das grandes plataformas tecnológicas.

Para que o jornalismo digital não apenas sobreviva, mas prospere, é imperativo que os líderes de mídia, jornalistas e o público repensem o valor da informação de qualidade. O caminho à frente exige coragem para inovar, compromisso com a excelência jornalística e, acima de tudo, um foco inabalável em servir e construir um relacionamento de confiança com o leitor. É hora de defender, de fato, o conteúdo de qualidade.

Este conteúdo não deve ser encarado como uma proposta de mudança. Ao contrário, um princípio de discussão. Nós também estamos longe de termos respostas definitivas. Nem queremos tê-las. Apenas sabemos o que não funciona. Vamos, então, a outra direção.

]]>
Relator do Cade vota por arquivamento em ação contra o Google https://naoeagencia.com.br/seo/pesquisa/2025/06/11/relator-do-cade-vota-por-arquivamento-em-acao-contra-o-google/ Wed, 11 Jun 2025 16:52:05 +0000 https://naoeagencia.com.br/?p=1191 A discussão sobre a remuneração de portais de notícias por grandes plataformas digitais segue em aberto no Conselho Administrativo de Defesa Econômica (Cade). Um inquérito que inicialmente parecia caminhar para o arquivamento ganhou novo fôlego após um pedido de vista, mantendo acesa a esperança de veículos jornalísticos por uma fatia maior da receita gerada por seus conteúdos na internet.

O Arquivamento proposto e o argumento do relator

O relator do caso,o Conselheiro Gustavo Augusto, havia se posicionado pelo arquivamento do inquérito. Sua tese central era que os próprios portais de notícias já detêm poder de barganha suficiente. Segundo Augusto, a capacidade dos veículos em decidir se seus conteúdos serão ou não indexados por motores de busca e redes sociais seria uma ferramenta poderosa para negociar ou, se necessário, recusar a exibição gratuita de seu material. Para o relator, essa prerrogativa já garantiria um equilíbrio nas relações comerciais, tornando desnecessária uma intervenção do Cade para forçar a remuneração.

Pedido de vista adia decisão

No entanto, a proposta de arquivamento foi freada por um pedido de vista do Conselheiro Diogo Thomson de Andrade. Esse movimento, comum em processos decisórios, permite que os demais membros do conselho tenham mais tempo para analisar o caso a fundo, ponderar os argumentos apresentados e, eventualmente, propor soluções alternativas. Com isso, o inquérito, que já era um dos mais aguardados no cenário digital brasileiro, permanece em andamento, e a expectativa agora se volta para os próximos passos do Cade.


O problema

O Conselho Administrativo de Defesa Econômica (CADE) reverteu sua decisão anterior e reabriu uma investigação contra o Google por possível abuso de poder de mercado. O inquérito, que havia sido arquivado pela Superintendência-Geral do órgão, foi desarquivado a pedido da conselheira Camila Cabral Alves para uma nova análise pelo Tribunal Administrativo.

O centro da questão é a prática de scraping, na qual o Google exibe trechos de notícias, manchetes e imagens de portais jornalísticos diretamente em suas plataformas, como o Google Search e o Google News. A acusação é que essa estratégia retém o tráfego de usuários no ecossistema do Google, prejudicando o acesso aos sites de notícias e afetando a divisão das receitas de publicidade digital.

Anteriormente, a Superintendência havia concluído que a prática não configurava uma infração, argumentando a ausência de dano direto ao consumidor. No entanto, o Tribunal do CADE considera a reavaliação do caso crucial para estabelecer precedentes e aprofundar a jurisprudência sobre a dinâmica competitiva nos mercados digitais.

A análise levará em conta diferentes teorias de dano, como a priorização dos próprios serviços (self-preferencing), o uso de conteúdo de terceiros sem a devida remuneração e o fato de que, mesmo sem anúncios diretos, a “atenção do usuário” é um ativo valioso e disputado no cenário digital.

O Contexto Global e as Implicações no Brasil

A discussão sobre a remuneração do jornalismo digital é um tema global, com países como a Austrália e nações europeias já implementando legislações que obrigam plataformas a pagar por conteúdo jornalístico. No Brasil, a decisão do Cade pode estabelecer um precedente crucial, impactando diretamente o modelo de negócios de inúmeros veículos e a forma como o conteúdo jornalístico é distribuído e monetizado na era digital. Os desdobramentos futuros prometem ser acompanhados de perto por todo o setor de comunicação e tecnologia.

Consideramos os argumentos utilizados pelo relator insuficientes e preocupantes. Atualizaremos o conteúdo em sequência, discutindo cada um deles.

Matéria em atualização…

]]>
Google afirma que prévia do texto no Discover aumenta a interação no site; entenda https://naoeagencia.com.br/seo/2025/06/11/google-afirma-que-previa-do-texto-no-discover-aumenta-a-interacao-no-site-entenda/ Wed, 11 Jun 2025 13:52:33 +0000 https://naoeagencia.com.br/?p=1186 Ontem, mostramos que o Google tem trocado títulos por pedaços de textos dos conteúdos no Discover.

Hoje, como o especialista Gangan Ghotra mostrou no Linkedin, Publishers têm recebido e-mails sobre as mudanças:

“Esse recurso do Discover oferece às pessoas uma prévia dos produtos mencionados em um artigo de compras para que possam ver facilmente se incluem itens ou marcas sobre as quais gostariam de saber mais. Descobrimos que, quando as pessoas se envolvem com esse recurso, é mais provável que passem mais tempo nesse artigo depois de clicar nele. Apoiar um ecossistema de publishers saudável continua sendo uma prioridade no Google, por isso continuaremos ouvindo o feedback de usuários e publishers à medida que criamos mais recursos para os compradores.”

Divulgação – Gangan Ghotra – LinkedIn

Google diz que as pessoas permanecem mais tempo no site

O argumento é parecido com o utilizado em AI OVerviews. Entretanto, aqui, tem um comportamento novo. Nesse caso, não é o Google canibalizando para si as informações, deixando de dar visibilidade aos editores.

Ao contrário, é o Google dando maior visibilidade aos conteúdos. De fato, é esperada uma queda de CTR nos conteúdos, principalmente naqueles que contém clickbait. Mas, naqueles que são realmente importantes, algumas dezenas de caracteres não serão suficientes para afastar os visitantes.

Ecossistema saudável

Ouvir o Google falar em ecossistema saudável é importante e interessante. Por mais que nem sempre conseguimos acreditar na empresa, ver tentativas frutíferas nos fornece alguma esperança.

Principalmente no Discover, o Google precisa incentivar bons conteúdos e desincentivar os demais. No Brasil, ele tem feito o contrário.

Vamos esperar por atualizações no Brasil e analisar impacto que ela trará aos Publishers.

]]>
Resultados de pesquisa, mesmo em grandes momentos, estão “longe dos números do Discover”, afirma especialista https://naoeagencia.com.br/seo/entrevistas/2025/06/11/resultados-de-pesquisa-mesmo-em-grandes-momentos-estao-longe-dos-numeros-do-discover-afirma-especialista/ Wed, 11 Jun 2025 13:31:50 +0000 https://naoeagencia.com.br/?p=1183 Hoje continuamos com nossos conteúdos com o especialista da Nomadic, Nicolás Billia, uma agência com profundo conhecimento em SEO para veículos de mídia na América Latina.

No último conteúdo, discutimos como Discover é fundamental na estratégia de diversos portais. Agora, falaremos sobre como isso tem se espalhado além da América Latina e chegado aos EUA e Europa.

Dependência do Discover não acontece só no Brasil

A mudança de foco para o Discover não é exclusiva. “Como te disse acima, em países como Argentina, México, Espanha e EUA para hispanofalantes a tendência vai nessa direção”, explica o especialista. Há “sites de grandes veículos de Mídia onde 90% do seu tráfego está no Discover“.

Isso reforça, mais uma vez, que atacar os grandes volumes do Discover é uma visão, de certa forma, preconceituosa com a forma de aquisição predominante dos portais de conteúdo e notícia.

Discover vence mesmo na existência de grandes trends

Embora breaking news e grandes coberturas (eleições, Copas do Mundo) ainda gerem tráfego via Search, “longe dos números do Discover”.

Um exemplo prático foi observado na própria agência: “Temos 2 clientes do mesmo grupo editorial na agência que, em uma jornada eleitoral que tivemos no mês passado, um teve uma excelente performance em Search com sua estratégia, o outro escolheu apostar no Google Discover e obteve bastante vantagem no tráfego geral do dia.

Ou seja, faz sentido para um editor priorizar conteúdos que sejam buscáveis em vez daqueles que são entregues via Discover?

No nosso próximo artigo, falaremos sobre como Billa entende ser possível otimizar um conteúdo para Discover.

Aqui, no Brasil, temos notado que alguns players estão adicionando editorias que não estavam relacionadas, inicialmente, com o objetivo do site para obterem mais tráfego de Discover. Veja.

]]>
Modo IA no Brasil: português é prioridade para o Google, afirma empresa no Google for Brasil https://naoeagencia.com.br/seo/inteligencia-artificial-seo/2025/06/11/modo-ia-no-brasil-portugues-e-prioridade-para-o-google/ Wed, 11 Jun 2025 11:58:47 +0000 https://naoeagencia.com.br/?p=1177 Modo IA do Google, lançado de forma limitada durante o Google I/O 2025 em maio, representa a aposta da gigante da tecnologia para vencer o jogo de Inteligência Artificial. Essa nova funcionalidade busca tornar a pesquisa mais intuitiva e precisa, compreendendo com maior exatidão as intenções do usuário, ainda que, de forma polêmica, possa ajudar a minar tráfego de editores. Na ocasião, o Google publicou um documento desincentivando otimizações para cliques.

Inicialmente disponível apenas nos EUA, o Google confirmou que o Brasil está entre os países prioritários para o lançamento do Modo IA. “A gente já está trabalhando para poder garantir que a qualidade do AI Mode em português seja boa o suficiente para habilitar que a gente lance aqui no Brasil o quanto antes. É um mercado prioritário”, explicou Bruno Possas, líder do time de engenharia da Busca do Google, durante o Evento Google for Brasil.

Ele complementou: “A adoção do AI Overview [o resumo de IA no topo das pesquisas] tem sido muito grande aqui no Brasil. Os brasileiros estão sempre muito abertos a testar novas tecnologias e essa combinação de Brasil [ser um] mercado prioritário, trabalho de qualidade para garantir que essas respostas [do Modo IA] são boas o suficiente, mais a adoção que os brasileiros normalmente têm para esse tipo de produto vai acelerar a vinda do AI Mode aqui para o Brasil.”

Fonte: Google/Divulgação

IA e o Impacto no SEO para Conteúdo e Jornalismo

A ascensão da inteligência artificial nas buscas, aliada ao crescimento das buscas visuais (via imagens ou câmera do celular), levanta questões sobre o futuro do trabalho de jornalistas e criadores de conteúdo. Tradicionalmente, esses profissionais dependem do SEO para garantir a visibilidade de seu conteúdo, seguindo diretrizes que incluem produção de material de qualidade, formatação otimizada e outras recomendações textuais.

Apesar da evolução da IA e das buscas multimodais, o Google reforça que o SEO continua sendo essencialpara sites e criadores. Nem todas as pesquisas envolvem resumos de IA, e a otimização tradicional ainda é crucial para a descoberta de conteúdo. Diante das mudanças, a recomendação é clara: evoluir o conteúdo para aproveitar as capacidades multimodais dos modelos de linguagem, que processam áudio, texto e imagem simultaneamente.

Vale lembrar que a forma com que as IAs em geral têm usado os dados ainda é polêmica. Em todo o mundo, vários profissionais e empresas têm conseguido gerar resultados com spam ou conteúdo parasita.

Prepara-se

Enquanto o Modo IA não chega no Brasil, é momento de trabalhar. Quem ainda tem tráfego mais ou menos estável em pesquisa precisa se preparar.

Pense em oportunidades, novos canais e novas abordagens para fazer um movimento de transição com mais suavidade. A tendência é que o Modo IA se torne, aos poucos, o padrão da pesquisa na Internet.

]]>