O cliente era exemplar. Briefing claro, equipe de marketing bem instruída, um time de TI proativo, orçamento realista e prazos respeitáveis. Um sonho idílico que elevava a proposta à desconfiança: quando a esmola é demais, até o santo desconfia.
O projeto era para posicionar uma empresa tradicional de maneira sólida no digital, com site novo, SEO técnico, automação de leads e métricas de acesso. Nada heroico, apenas o básico sendo executado com rigor.
No dia do lançamento, tudo era impecável. Conteúdo denso, arquitetura da informação coerente, experiência do usuário focada na conversão das metas, infraestrutura na nuvem do cliente devidamente segregada do negócio principal, código otimizado para mecanismos de busca e todas métricas verdes no Lighthouse. Um trabalho digno.
Duas semanas depois, o terror: o relatório do Search Console parecia de uma página em branco. Nada de cliques e zero impressões, indexação inexistente. Um site tecnicamente perfeito e completamente invisível para mecanismos de busca.
O diagnóstico da capa de invisibilidade
Na triagem inicial, o site passava em todas as ferramentas. Robots.txt limpo, sitemap publicado, títulos bem construídos, tags corretas e sem problemas de desempenho evidente. Nada gritava erro. Mas o servidor tinha um detalhe curioso: hospedagem empresarial, firewall de aplicação ativo e — veja só — uma regra automática de segurança que bloqueava crawlers "suspeitos". Entre eles? Googlebot!
Alguém, em algum momento, tinha ativado um modo paranoico de proteção contra "scrapers", e o firewall decidiu que o maior scraper do mundo era uma ameaça. Ironicamente, o site estava tão bem protegido que ninguém, nem mesmo o Google, conseguia vê-lo.
Enquanto a equipe de TI se orgulhava da "camada extra de segurança", a estratégia, na prática, era um filtro de invisibilidade, ou o que profissionais de segurança chamam de "segurança por ofuscação". O servidor devolvia um 403 Forbidden para todos os bots legítimos. Era o equivalente digital a construir uma vitrine perfeita e depois cimentar o vidro por dentro.
Derrubando barreiras
O ajuste técnico foi simples. Bastou convencer a TI a ajustar o WAF, liberar o tráfego dos crawlers oficiais e revisar as políticas do CDN. Garantindo acesso aos robôs do Google, Bing, OpenAi e outros agentes respeitáveis. Mas o mais interessante foi o debate durante a reunião de conciliação, a tensão entre segurança e visibilidade.
Enquanto a equipe interna de tecnologia zelava pelo controle absoluto. O marketing clamava por exposição total. No meio dessa batalha, o especialista em internet tentando explicar que o Google não é inimigo, que privacidade não é isolamento, e que um firewall não pode decidir sozinho quem tem o direito de ver a marca, e o mais importante: Não se mistura infraestrutura minimamente crítica (sistemas internos) com material de divulgação (site). Parece óbvio, mas no calor do deploy, raramente é.
Cache purgado, bot list limpa, sitemap reenviado. Três dias depois, o site apareceu. Cinco dias depois, começou a ranquear. A diretoria comemorou como se fosse milagre essa simples reconciliação entre paranoia e propósito.
O site, enfim, estava lá — público, rápido, confiável. Se não fosse a primeira incursão digital real da empresa na internet, aquelas duas semanas de site invisível no Google poderiam ter custado caro. Curioso como, na era dos algoritmos, a maior ameaça à presença digital ainda é o medo de ser visto.
🧠 O que aprendemos com isso
- Segurança não pode ser configurada por medo. Bloquear o que não se entende é a forma mais elegante de se auto sabotar.
- SEO é um ecossistema técnico, não um departamento. Ele depende da infraestrutura tanto quanto do conteúdo.
- A comunicação entre times vale mais que qualquer plugin. TI protege, marketing divulga, ambos estão certos, mas precisam conversar.
- Visibilidade é vulnerabilidade calculada. Estar aberto ao Google é aceitar o risco necessário de existir.



Deixar um comentário