A forma como as pessoas encontram e consomem seu conteúdo está mudando drasticamente por causa de Inteligências Artificiais (IAs) como o ChatGPT e as novas buscas do Google (AI Overviews).
- O que é o IAB Tech Lab?
- IAs generativas e o fim dos cliques
- Problema nº 1: O “ladrão de tráfego” AI Overviews
- Problema nº 2: O tsunami de “Scraping” (Raspagem de Conteúdo)
- Problema nº 3: A concentração de receita e a desigualdade econômica
- A estratégia de três pilares para Publishers
- Pilar 1: Gerenciar e Controlar o Acesso ao Conteúdo (Construir as Muralhas)
- Pilar 2: Fornecer Descoberta Amigável para LLMs (Desenhar o Mapa do Tesouro)
- Pilar 3: Monetizar o Conteúdo
- Parte 2: A opção NLWeb
- O que é o NLWeb?
- NLWeb vs. LLM Ingest API do IAB
- A Recomendação Estratégica do IAB: O Melhor dos Dois Mundos
- Parte 3: Plano de ação prático para Publishers
- Desafios e oportunidades
Em vez de clicar em seu site, os usuários estão recebendo respostas diretas dessas IAs, que treinam e se alimentam do seu conteúdo sem permissão e, na maioria das vezes, sem pagar por isso. Isso está causando uma queda catastrófica de tráfego (de 20% a 90%) e uma perda de receita publicitária estimada em bilhões. Ao mesmo tempo, o “scraping” (raspagem) do seu site por robôs de IA aumentou exponencialmente, sobrecarregando seus servidores.
Este documento do IAB Tech Lab propõe uma solução. É um plano para que os publishers:
- Controlem o Acesso: Bloqueiem robôs indesejados e direcionem os “robôs bons” (de empresas de IA sérias) para um caminho legítimo.
- Facilitem a Descoberta: Criem um “mapa do tesouro” para que as IAs entendam qual conteúdo você tem e quais são as regras para usá-lo, sem precisar “saquear” seu site inteiro.
- Monetizem o Conteúdo: Implementem novos modelos de negócio para cobrar pelo uso do seu conteúdo pelas IAs, seja por um “pedágio” a cada visita do robô (Custo por Crawl) ou por um sistema de API onde elas pagam para fazer perguntas e receber seu conteúdo de forma estruturada.
Em suma, o IAB está propondo uma mudança do modelo “acesso livre para todos” para um modelo “acesso controlado e pago para máquinas”, garantindo que o valor do seu conteúdo seja reconhecido e remunerado na era da IA. Ignorar isso não é uma opção; é o caminho para a irrelevância e a falência.
O que é o IAB Tech Lab?
O IAB Tech Lab é o braço de pesquisa e desenvolvimento técnico do Interactive Advertising Bureau (IAB). É um consórcio global sem fins lucrativos que reúne empresas de tecnologia, publishers e agências para criar os padrões, softwares e diretrizes que formam a “infraestrutura” da publicidade digital.
Em resumo, eles definem as regras e a linguagem técnica para que as diferentes plataformas do mercado consigam operar juntas de forma padronizada, segura e eficiente.
IAs generativas e o fim dos cliques
Por quase duas décadas, o pacto tácito da internet para publishers era claro: você cria conteúdo de alta qualidade, o Google e outros mecanismos de busca o indexam e enviam tráfego para seu site. Com esse tráfego, você vende anúncios, oferece assinaturas e constrói uma comunidade. Era um ecossistema simbiótico, embora imperfeito.
Esse pacto foi quebrado.
A ascensão meteórica dos Grandes Modelos de Linguagem (LLMs) – os cérebros por trás de ferramentas como ChatGPT, Gemini, Claude e outros – e sua integração direta nos mecanismos de busca representam um terremoto de magnitude 9 na escala Richter para o mundo da publicação digital.
O documento do IAB Tech Lab não começa com jargões técnicos. Ele começa com uma avaliação sóbria e alarmante da realidade. Vamos detalhar os tremores que você, publisher, já está sentindo.
Problema nº 1: O “ladrão de tráfego” AI Overviews
O “AI Overviews” do Google (e ferramentas similares de outros buscadores) é o epicentro do problema. Antes, um usuário que buscasse “melhores receitas de bolo de chocolate” veria uma lista de links para sites de culinária. Ele escolheria um, clicaria e aterrissaria no seu site. Agora, o Google usa seu Gemini para ler os 10 melhores resultados, sintetizar a informação e apresentar uma única resposta “perfeita” no topo da página.
O usuário obtém sua receita sem nunca visitar seu site. Ele não vê seus anúncios. Ele não se inscreve na sua newsletter. Ele não descobre outras receitas incríveis que você tem. Ele consome o valor do seu trabalho, mas o valor (receita, dados, engajamento) fica com o Google.
Os números citados no documento são assustadores:
- Queda de tráfego de 20% a 60% em média.
- Para publishers de nicho (viagens, culinária, DIY), a queda pode chegar a 90%. Imagine construir um negócio por 16 anos, como o blog de viagens The Planet D, e vê-lo desaparecer em seis meses. Isso não é hipotético; aconteceu.
- A taxa de cliques de chatbots de IA é 95,7% menor que a de uma página de resultados de busca tradicional.
Isso é uma ameaça existencial. É a extração de valor em escala industrial, onde a matéria-prima (seu conteúdo) é retirada, processada e vendida pelo intermediário, que fica com todo o lucro.
Problema nº 2: O tsunami de “Scraping” (Raspagem de Conteúdo)
Para alimentar esses modelos de IA, as empresas precisam de uma quantidade inimaginável de dados. Onde elas encontram a informação mais fresca, relevante e escrita por humanos? Na internet aberta – ou seja, no seu site.
O “scraping” é o processo automatizado de robôs (bots) que visitam seu site e aspiram todo o seu conteúdo. O documento destaca alguns pontos críticos:
- Aumento de 117% no tráfego de bots de IA em um único trimestre.
- Em média, cada site é “raspado” 5 milhões de vezes.
- Para cada visita humana que você recebe do Google, eles podem ter raspado 6 páginas. Para o ChatGPT, essa proporção é de 250 páginas raspadas para cada visita enviada. Para o Claude, é um espantoso 6000 para 1.
Isso cria dois problemas graves:
- Custo: Esses milhões de acessos de robôs consomem a largura de banda do seu servidor. Você está, literalmente, pagando para que as empresas de IA peguem seu conteúdo de graça para competir com você.
- Falta de Ética: Muitos desses robôs ignoram as regras do robots.txt (o arquivo onde você educadamente pede para não ser raspado) e usam técnicas para se esconderem, agindo como “bots maliciosos”.
Problema nº 3: A concentração de receita e a desigualdade econômica
Enquanto os publishers sofrem, o mercado de publicidade digital continua crescendo, mas o dinheiro está indo para cada vez menos bolsos. O relatório IAB/PwC citado mostra que 80.8% de toda a receita de publicidade na internet está concentrada nas 10 maiores empresas (Google, Meta, etc.).
A situação é perversa: empresas de IA, avaliadas em bilhões de dólares, constroem seus produtos sobre o conteúdo gratuito de milhares de publishers, que por sua vez estão perdendo sua principal fonte de receita para essas mesmas empresas. É um ciclo vicioso que, se não for interrompido, levará ao colapso do ecossistema de conteúdo que alimenta a própria IA. Sem publishers viáveis, a qualidade da informação na internet se degradará, e os modelos de IA se tornarão menos úteis, alimentando-se de conteúdo de baixa qualidade ou de suas próprias alucinações.
O documento do IAB Tech Lab se coloca como resposta da indústria a essa crise. É uma tentativa de reequilibrar o jogo, criando novas regras e novas tecnologias para um mundo onde as máquinas são os principais consumidores do seu conteúdo.
A estratégia de três pilares para Publishers
Diante desse cenário sombrio, o IAB propõe um framework prático, uma estratégia de três passos para que os publishers retomem o controle e criem novas fontes de receita. Pense nisso como: Construir as Muralhas, Desenhar o Mapa do Tesouro e Vender o Ouro.
Pilar 1: Gerenciar e Controlar o Acesso ao Conteúdo (Construir as Muralhas)
O primeiro passo é parar a sangria. Você precisa controlar quem pode acessar seu conteúdo e como. A internet não pode mais ser um buffet livre para robôs. O framework sugere duas ferramentas principais:
a) Declarações no robots.txt:
- O que é? O robots.txt é um arquivo de texto simples que fica na raiz do seu site (ex: seusite.com/robots.txt). Ele funciona como uma placa na porta de entrada, com instruções para robôs visitantes (“bots de busca, entrem por aqui”, “bots de IA, por favor, não entrem”).
- Como funciona na prática? Você pode adicionar regras para bloquear bots específicos. O documento dá um exemplo claro:Generated code
User-agent: GPTBot
# Para o bot do ChatGPT
Disallow: / # Não permita acesso a nada
User-agent: ClaudeBot
# Para o bot do Claude
Disallow: / # Não permita acesso a nada
User-agent: * # Para todos os outros bots
Disallow: /premium-content/ # Não permita acesso à sua área premium
- A Limitação Crucial: O robots.txt é um pedido de cavalheiros. Robôs “bem-comportados” (como o do Google Search) geralmente o respeitam. No entanto, robôs “mal-intencionados” ou agressivos podem simplesmente ignorá-lo. Portanto, ele é um primeiro passo necessário, mas insuficiente.
b) Métodos de Web Application Firewall (WAF):
- O que é? Se o robots.txt é a placa na porta, o WAF é o segurança inteligente e forte na entrada. É uma camada de proteção que analisa todo o tráfego que chega ao seu site antes que ele atinja seu servidor.
- Como ele ajuda a construir as muralhas?
- Detecção e Bloqueio de Bots: O WAF pode identificar robôs com base em seu comportamento (acessam páginas rápido demais, vêm de endereços de IP conhecidos por scraping) ou por sua “identidade” (o User-Agent que eles enviam). Você pode criar uma regra: “Se o User-Agent for GPTBot, bloqueie o acesso.”
- Limitação de Taxa (Rate Limiting): Isso impede que um único IP ou bot faça centenas de solicitações por segundo, o que sobrecarregaria seu servidor. É como dizer: “Calma, um de cada vez.”
- Redirecionamento Inteligente: Esta é uma das ideias mais poderosas do framework. Em vez de simplesmente mostrar uma página de “Acesso Negado” (erro 403), o WAF pode redirecionar o bot bloqueado para uma página especial, a “Página de Regras de Acesso ao Conteúdo”. É uma abordagem proativa: “Ei, bot! Você não pode entrar por aqui, mas se você for uma IA legítima, clique aqui para aprender as regras e descobrir como acessar nosso conteúdo da maneira certa (e paga).”
Resumo do Pilar 1: A primeira etapa é trancar a porta da frente. Use robots.txt como um aviso e um WAF como seu segurança ativo para bloquear o acesso indiscriminado e guiar os bots legítimos para a entrada de serviço correta.
Pilar 2: Fornecer Descoberta Amigável para LLMs (Desenhar o Mapa do Tesouro)
Depois de bloquear o acesso indesejado, você precisa fornecer um caminho claro para os “bots bons”. As empresas de IA ainda precisam do seu conteúdo. Se você apenas bloquear tudo, elas podem tentar encontrar maneiras mais agressivas de obtê-lo ou simplesmente ignorá-lo. A estratégia inteligente é tornar mais fácil para elas obterem seu conteúdo da maneira que você quer.
Isso é “descoberta amigável para LLMs”. É como criar um catálogo ou um mapa do tesouro para o seu conteúdo, para que as IAs não precisem cavar seu site inteiro para encontrar o que precisam. O framework propõe três ferramentas:
a) A Página de Regras de Acesso ao Conteúdo (/content-access-rules):
- O que é? É a página para a qual seu WAF redireciona os bots. É uma página feita para ser lida por máquinas (e seus desenvolvedores humanos) que explica as regras da casa.
- O que ela deve conter?
- Termos de Uso: “Scraping não é permitido.”
- Como Acessar: “Para usar nosso conteúdo, você precisa de uma chave de API. Solicite uma aqui.” ou “Oferecemos os seguintes planos de licenciamento.”
- Contato: “Para acordos personalizados, envie um e-mail para licensing@seusite.com.”
- Links para os Mapas do Tesouro: “Nossos metadados de conteúdo estão disponíveis em /content-metadata.json” e “Nossas diretrizes para IA estão em /llms.txt.”
b) O Arquivo de Metadados de Conteúdo (content-metadata.json):
- O que é? É um arquivo em formato JSON (um formato de dados legível por máquina) que funciona como o índice de um livro. Ele descreve, de forma estruturada, sobre o que é o seu site e que tipo de conteúdo você oferece.
- Exemplo:
{ "content": { "domain": "seusitedenoticias.com", "summary": "Notícias e análises sobre política e economia.", "keywords": ["política", "economia", "notícias", "brasil"], "categories": ["IAB12-1", "IAB12-2"] // Códigos de categoria IAB } }
- Por que é útil? Uma IA pode ler este arquivo em um segundo e saber se o seu site é relevante para a consulta de um usuário, sem precisar ler milhares de artigos. É eficiência para eles e economia de recursos para você.
c) O Arquivo llms.txt:
- O que é? Uma iniciativa mais recente (inspirada no robots.txt) que cria um arquivo de texto em formato Markdown para guiar as IAs. É menos sobre dados brutos e mais sobre instruções e contexto.
- O que ele pode conter?
- Um resumo do seu site.
- Links para seções importantes ou para a documentação da sua API.
- Instruções sobre como a IA deve (ou não) usar seu conteúdo. Ex: “Ao citar nosso conteúdo, por favor, inclua um link para o artigo original.”
- Pode apontar para outros arquivos Markdown mais detalhados para diferentes seções do site.
Resumo do Pilar 2: Depois de construir as muralhas, você desenha um mapa claro e conciso. Use a página de regras de acesso, o content-metadata.json e o llms.txt para dizer às IAs: “Este é o tesouro que temos, e estas são as regras para acessá-lo.” Isso transforma uma interação potencialmente hostil (scraping) em uma transação comercial em potencial.
Pilar 3: Monetizar o Conteúdo
Este é o pilar que garante o seu futuro. Controlar o acesso e guiar os bots é inútil se você não for compensado pelo valor que seu conteúdo proporciona. O framework do IAB propõe três modelos de receita principais, que não são mutuamente exclusivos. Você pode até combinar abordagens.
Modelo 1: Parcerias de Conteúdo (O “Acordo Netflix”)
- Como funciona? Você negocia um contrato de licenciamento direto com uma empresa de IA (como a OpenAI, Anthropic, etc.). Eles pagam uma taxa fixa (geralmente anual) para ter acesso ao seu arquivo de conteúdo, muitas vezes através de uma API privada. Vários grandes publishers, como o Financial Times e a Axel Springer, já fizeram isso.
- Para quem é bom? Grandes publishers com um vasto e valioso acervo de conteúdo histórico.
- Prós: Receita previsível e garantida.
- Contras: Pode subvalorizar seu conteúdo, especialmente o conteúdo novo e “quente”. O preço é fixo, independentemente da demanda. Requer uma equipe de negociação e capacidade técnica para fornecer a API.
Modelo 2: Custo por Crawl (CPCr) (O “Modelo Pedágio”)
- Como funciona? Este é um modelo mais simples e escalável. Em vez de um grande contrato, você cobra uma pequena taxa por cada “crawl” (cada vez que um bot acessa uma página ou um pedaço de conteúdo). É um pedágio automatizado para bots.
- Como implementar?
- Descoberta: O bot encontra as informações sobre seu modelo CPCr na sua página de regras de acesso ou em uma linha especial no robots.txt, como CPC-Discovery: https://seusite.com/cpc/info.
- Registro: O bot (ou seu operador) se registra na sua plataforma (ou em uma plataforma intermediária que gerencia isso para você), recebe uma chave de API e concorda com os preços.
- Acesso e Cobrança: O bot usa a chave de API para acessar seu conteúdo. Cada acesso é registrado e cobrado. O preço pode variar: um preço por página, um preço por megabyte, ou preços diferentes para tipos de conteúdo (um artigo de notícias premium custa mais do que um post de blog antigo).
- Para quem é bom? Publishers de todos os tamanhos que buscam um modelo mais direto e automatizado para monetizar o tráfego de bots.
- Prós: Simples de entender, escalável, e monetiza cada interação.
- Contras: A receita por interação é pequena, então depende de um grande volume. Requer uma infraestrutura de autenticação, logging e faturamento.
Modelo 3: Publisher LLM Ingest API (O “Mercado Dinâmico”)
- Como funciona? Este é o modelo mais sofisticado e potencialmente o mais lucrativo. Em vez de apenas dar acesso, você cria uma API onde as IAs podem fazer “perguntas” (queries) e você responde com o conteúdo mais relevante. A monetização é mais dinâmica.
- A grande virada: Este modelo pode incluir um mecanismo de lances (bidding). Imagine que uma notícia de última hora acontece. Várias IAs querem essa informação imediatamente para seus usuários. Elas podem “dar lances” através da sua API pelo direito de acessar esse conteúdo primeiro. O preço do seu conteúdo passa a ser determinado pela demanda do mercado em tempo real.
- Como funciona a API? O documento detalha os “endpoints” (os URLs da API):
- /info: O bot pergunta “Quais são as regras?”. A API responde com os preços, tipos de conteúdo disponíveis, etc.
- /query: O bot envia uma pergunta (ex: “O que aconteceu na política hoje?”) e uma oferta de preço por token.
- /bid: Para conteúdo premium, o bot pode enviar um lance.
- /log: Um endpoint para verificar e auditar as transações.
- Para quem é bom? Publishers com conteúdo muito dinâmico, de alto valor e em tempo real (notícias, dados financeiros, relatórios de pesquisa).
- Prós: Maximiza o valor do conteúdo, especialmente o que é mais relevante e recente. Dá controle total sobre o que é entregue.
- Contras: É o modelo mais complexo de implementar, exigindo um desenvolvimento de API robusto e uma estratégia de precificação dinâmica.
Resumo do Pilar 3: A monetização é o objetivo final. Avalie seu tipo de conteúdo e capacidade técnica. Grandes arquivos podem se beneficiar de parcerias. Para uma monetização mais ampla e automatizada, o CPCr é um ótimo começo. Para maximizar o valor do conteúdo “quente”, a LLM Ingest API é a fronteira a ser explorada.
Parte 2: A opção NLWeb
O documento dedica uma seção importante a uma iniciativa da Microsoft chamada NLWeb (Natural Language Web). É crucial entendê-la, pois ela representa uma visão ligeiramente diferente, mas complementar, do futuro.
O que é o NLWeb?
Pense no NLWeb como uma tentativa de padronizar a forma como qualquer site pode se tornar “conversacional” e interagir com IAs, sem que cada publisher precise construir sua própria API do zero. A ideia é usar padrões da web já existentes, como:
- Schema.org: Um vocabulário de dados estruturados que você já deve usar para SEO. O NLWeb o utiliza para que a IA entenda o que é um produto, um artigo, um evento, etc., no seu site.
- MCP (Model Context Protocol): Um novo protocolo que age como um “tradutor universal” entre diferentes IAs e sites.
Em vez de uma API complexa, um site com NLWeb teria um método simples chamado “ask” (perguntar). Uma IA poderia fazer uma pergunta em linguagem natural, e o site responderia com dados estruturados via Schema.org.
NLWeb vs. LLM Ingest API do IAB
O documento apresenta uma tabela comparativa útil. Aqui está a versão simplificada:
Característica | NLWeb | LLM Ingest API (IAB) |
Propósito | Tornar a web inteira conversacional | Permitir que publishers monetizem o acesso ao conteúdo |
Monetização | Nenhuma. O acesso é geralmente gratuito. | Central. Foco em preços, lances e faturamento. |
Autenticação | Nenhuma nativa. Depende do publisher implementar. | Integrada. Usa um sistema de chaves de parceiro (X-Partner-Key). |
Complexidade | Menor para começar (usa padrões existentes). | Maior, pois requer a construção de uma API completa. |
A Recomendação Estratégica do IAB: O Melhor dos Dois Mundos
O IAB não apresenta o NLWeb como um concorrente, mas como uma peça do quebra-cabeça. A recomendação é brilhante:
- Use o NLWeb como a Fundação: Adote os padrões do NLWeb e do Schema.org. Isso torna seu site instantaneamente “compreensível” para um ecossistema crescente de IAs compatíveis, sem grande esforço de desenvolvimento. É uma ótima maneira de ganhar visibilidade.
- Construa sua LLM Ingest API por Cima: Em seguida, “estenda” sua implementação do NLWeb com os endpoints da LLM Ingest API do IAB (/query, /bid, etc.).
Como isso funciona na prática?
Uma IA “básica” pode interagir com seu site gratuitamente através da camada NLWeb. No entanto, se uma IA “premium” (de um parceiro comercial) quiser acesso garantido, conteúdo mais detalhado ou dados em tempo real, ela precisará usar sua chave de parceiro (X-Partner-Key) e acessar os endpoints pagos da sua LLM Ingest API.
Você cria um sistema de duas camadas: uma camada básica e gratuita para ampla visibilidade (NLWeb) e uma camada premium, segura e monetizada para parceiros comerciais (IAB LLM Ingest API).
Parte 3: Plano de ação prático para Publishers
Tudo isso pode parecer esmagador. Por onde começar? Aqui está um plano de ação faseado, do mais urgente ao mais estratégico.
Fase 1: Defesa Imediata (Semanas)
- Audite seu Tráfego de Bots: Use ferramentas de análise (como as oferecidas por Cloudflare, ou outras plataformas de segurança) para entender quais bots estão acessando seu site e com que frequência. Você ficará surpreso.
- Atualize seu robots.txt: Adicione imediatamente diretivas Disallow para os bots de IA mais conhecidos (GPTBot, ClaudeBot, etc.). Isso não vai parar todos, mas é um sinal claro e um primeiro passo essencial.
- Implemente Regras de WAF: Contrate ou configure um serviço de WAF. Comece com regras simples: bloqueie User-Agents de bots de IA conhecidos e implemente uma limitação de taxa (rate limiting) para evitar sobrecarga.
Fase 2: Preparando o Terreno para Negócios (1-3 Meses)
- Crie sua Página de Regras de Acesso ao Conteúdo: Mesmo que seja simples, crie a página (/content-access-rules) e explique que o scraping é proibido, mas que você está aberto a parcerias de licenciamento. Coloque um e-mail de contato. Configure seu WAF para redirecionar bots bloqueados para esta página.
- Crie seus “Mapas do Tesouro”: Desenvolva seu content-metadata.json e seu llms.txt. Isso mostra à indústria que você está pensando estrategicamente e facilita futuras negociações.
Fase 3: Implementando a Monetização (3-9 Meses)
- Escolha seu Modelo:
- Se você tem conteúdo de alto valor e uma equipe de negócios, comece a contatar empresas de IA para parcerias diretas.
- Para uma solução mais escalável, planeje a implementação do modelo CPCr (Custo por Crawl). Procure por plataformas de tecnologia que possam oferecer essa solução “como um serviço” para evitar ter que construir tudo do zero.
- Se seu conteúdo é extremamente dinâmico (notícias, finanças), comece a projetar sua LLM Ingest API. Esta é uma iniciativa de desenvolvimento maior, mas com o maior potencial de retorno.
- Implemente e Teste: Lance seu modelo de monetização escolhido e comece a integrar os primeiros parceiros “beta”.
Fase 4: Liderando o Futuro (Longo Prazo)
- Explore a Integração com NLWeb: Investigue como alinhar sua estrutura com os padrões do NLWeb para criar o sistema de duas camadas (visibilidade ampla + monetização premium).
- Participe da Conversa: O IAB está convocando a indústria para dar feedback. Participe de workshops, converse com outros publishers e contribua para a padronização. O futuro do seu negócio depende da criação de um ecossistema justo e padronizado.
Desafios e oportunidades
A ascensão da IA generativa é, sem dúvida, o maior desafio que a indústria de publicação já enfrentou. É uma força disruptiva que está redesenhando o fluxo de informação e valor na internet. Tentar ignorá-la ou lutar contra ela com as ferramentas antigas é uma receita para o fracasso.
O framework do IAB Tech Lab oferece uma alternativa. Ele nos dá uma linguagem comum e um conjunto de ferramentas para transformar essa ameaça em uma oportunidade. A internet está se dividindo em duas: uma web para humanos e uma web para máquinas. Por anos, otimizamos para a primeira (SEO, UX, design responsivo). Agora, precisamos urgentemente aprender a otimizar e monetizar para a segunda.
Um caminho simples?
O caminho proposto pelo IAB – Controlar, Guiar e Monetizar, entretanto, nos parece simplório. Por mais que ofereça um arsenal de opções que envolvem complexidade tecnológica, trás dificuldades do mundo real: o tráfego está em queda. Em muitas situações, a receita está em queda. O que fazer?
A bem da verdade, a resposta não é simples. Mas precisamos afastar a ideia de que, simplesmente, defender seu servidor do rastreamento das IAs ou pedir pagamento de contraprestação é suficiente até mesmo para minimizar os estragos.
Temos visto que as IAs são eficientes para conseguir as mesmas informações em uma grande variedade de dados e canais, alguns deles abertos, para oferecer as informações para os seus usuários. Por isso, precisamos nos concentrar nas fontes e nas respostas. O rastreamento é um efeito colateral de se ter a informação de determinada fonte.
Com isso, estimularíamos as IAs para eficiência de rastreamento (o que não é ruim do ponto de vista de uso de servidor), diminuindo a contraprestação paga. Além disso, ela também preferiria fontes secundárias com menor pagamento, como sites piratas, redes sociais e fóruns abertos.
O caminho da regulamentação
Em um cenário cheio de atores e coadjuvantes, torna-se difícil pensar que tantas empresas conseguirão chegar a consensos que mantenham todos vivos. Por isso, é fundamental que a sociedade possa regulamentar a ação de cada um deles.
Embora isso soe bastante complexidade, a verdade é que não conseguiremos nos afastar dela. Novos caminhos, que se baseiam no extermínio ou enfraquecimento do que era antigo, precisam de regulamentação para que a transição possa ser feita de maneira rápida, sem deixar ninguém par atrás.
Além disso, exige que os principais atores possam usar seus canais para exigir participação e, principalmente, que as conversas existam. E existam em velocidade adequada.
Exatamente por isso criticamos o projeto de Deputado Boulos. A ideia de taxar Big Techs poderia ser um bom momento para debater com maior profundidade o papel e o impacto dessas empresas no jornalismo e na própria democracia brasileira.
Publisher do "Não é Agência!" e Especialista de SEO, Willian Porto tem mais de 21 anos de experiência em projetos de aquisição orgânica. Especializado em Portais de Notícias, também participou de projetos em e-commerces, como Americanas, Shoptime, Bosch e Trocafone.
- Willian Portohttps://naoeagencia.com.br/author/naoeagencia/
- Willian Portohttps://naoeagencia.com.br/author/naoeagencia/
- Willian Portohttps://naoeagencia.com.br/author/naoeagencia/
- Willian Portohttps://naoeagencia.com.br/author/naoeagencia/