Configurar corretamente o robots.txt para SEO (o meu guia)

O robots.txt é um pequeno ficheiro com um grande impacto. Determina o que os motores de busca podem ou não rastrear no teu sítio Web. Um erro neste ficheiro pode resultar em conteúdo bloqueado, indexação falhada ou mesmo perda de classificação. Neste artigo, explico passo a passo como configurar corretamente um ficheiro robots.txt para SEO.

1. O que é o robots.txt?

O robots.txt é um ficheiro de texto que colocas na raiz do teu domínio (por exemplo, https://jouwdomein.nl/robots.txt). Os motores de busca lêem este ficheiro na sua primeira visita para determinar os caminhos que podem rastrear.

Importante:

  • Não é uma garantia de que algo não será indexado (utiliza também o noindex para isso)
  • Bloqueia o rastreio, não necessariamente a indexação
  • Regras incorrectas podem causar danos não intencionais em termos de SEO

2. Estrutura de um ficheiro robots.txt

Um ficheiro padrão tem o seguinte aspeto:

txt
User-agent: *
Disallow:
Sitemap: https://jouwdomein.nl/sitemap.xml
Copy to Clipboard

Explica-te:

  • Agente do utilizador: * = aplica-se a todos os bots
  • Disallow: sem caminho = permite tudo
  • Disallow: /admin/ = bloqueia tudo na pasta /admin/
  • Allow: /path/ = permite explicitamente (útil para excepções)

3. O que estás a bloquear e o que não estás a bloquear?

Mas bloqueia:

  • Páginas de administração/login (/wp-admin/, /cart/, /checkout/)
  • Resultados da pesquisa interna (/search/)
  • Filtra páginas com parâmetros desnecessários (?color=, ?sort=)
  • Diretórios de teste/dev (/beta/, /test/)

Não bloqueies:

  • Ficheiros CSS e JS (necessários para o controlo de renderização)
  • Tipos de páginas principais (páginas SEO, blogue, serviços)
  • Imagens (a menos que queiras deliberadamente mantê-las fora dos resultados da pesquisa de imagens)

O Google deve ser capaz de processar o site como os utilizadores o fazem. Por isso, não bloqueies ficheiros de estilo ou de script.

Aan de slag met SEO? Neem gerust contact op.

Senior SEO-specialist






    4. Exemplos de boa configuração

    Para o WordPress:

    txt
    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php
    Disallow: /?s=
    Disallow: /search/
    Sitemap: https://jouwdomein.nl/sitemap_index.xml
    Copy to Clipboard

    Para loja virtual (por exemplo, WooCommerce):

    txt
    User-agent: *
    Disallow: /cart/
    Disallow: /checkout/
    Disallow: /my-account/
    Disallow: /?orderby=
    Disallow: /*add-to-cart=*
    Sitemap: https://jouwdomein.nl/sitemap.xml
    Copy to Clipboard

    5. Testa o teu ficheiro robots.txt

    Os erros surgem rapidamente. Testa sempre:

    • Google Search Console > Testador de Robots.txt
    • Screaming Frog > Configuração > Robots.txt
    • Chrome DevTools > Mensagens de erro “Bloqueado por robots.txt

    6. Erros comuns

    ErroSolução
    Bloqueia tudo com Disallow: /Aplicar apenas em situações de preparação/temporárias
    Bloqueio de CSS/JSDeixa sempre acessível para uma apresentação correta
    Não inclui uma linha de mapa do siteAdiciona o mapa do site na parte inferior do ficheiro
    Não permite: /*? usa sem teste Certifica-te de que os parâmetros que têm valor permanecem acessíveis
    Utilizar robots.txt em vez de noindexUtiliza noindex para controlo de indexação, robots.txt apenas para rastreio

    7. Robots.txt e ambientes de preparação/teste

    Queres proteger ambientes de teste ou de preparação?

    Usa-o:

    txt
    User-agent: *
    Disallow: /
    Copy to Clipboard

    Mas: isto só impede o rastreio, não a indexação. Combina com:

    • Autenticação HTTP (segurança básica)
    • noindex em <meta> tags
    • Bloqueia o endereço IP através de .htaccess ou firewall

    Em conclusão

    Um robots.txt corretamente definido evita o desperdício de rastreio e protege o teu site de problemas de indexação não intencionais. Trabalha com regras claras e controladas – e testa cada alteração. Pequeno ficheiro, grande efeito.

    Senior SEO-specialist

    Ralf van Veen

    Senior SEO-specialist
    Five stars
    Obtenho um 5.0 no Google em 85 revisões

    Há 12 anos que trabalho como especialista independente em SEO para empresas (nos Países Baixos e no estrangeiro) que pretendem obter uma classificação mais elevada no Google de uma forma sustentável. Durante este período, prestei consultoria a marcas de renome, criei campanhas internacionais de SEO em grande escala e orientei equipas de desenvolvimento globais sobre otimização de motores de busca.

    Com esta vasta experiência em SEO, desenvolvi o curso de SEO e ajudei centenas de empresas a melhorar a sua capacidade de serem encontradas no Google de uma forma sustentável e transparente. Para isso, pode consultar o meu portefólio, referências e colaborações.

    Este artigo foi originalmente publicado em 3 Junho 2025. A última atualização deste artigo foi em 18 Julho 2025. O conteúdo desta página foi escrito e aprovado por Ralf van Veen. Saiba mais sobre a criação dos meus artigos nas minhas directrizes editoriais.