Como impedir que o Google que indexe páginas desnecessárias?

Para impedir a indexação de alguma página em específico do seu site, você deverá configurar o seu arquivo robots.txt.

O comando disallow vai impedir a indexação.

Exemplo:

Disallow: /sugestoes.html

Também é possível bloquear o acesso a diretórios e pastas dentro do seu site usando o mesmo caminho, mas ao invés de informar a página exata dentro do site, usa-se:

/conteudo - assim, arquivos e diretórios que começarem com “conteudo” não serão indexados pelo Googlebot;

/conteudo/ - o diretório “conteudo” dentro do seu site não será indexado pelo Googlebot;

Aqui no fórum você tem o tutorial de alteração do robots para algumas plataformas específicas de e-commerce, listarei abaixo:

Basta agora identificar quais são as páginas que não devem ser indexadas e adicionar as exceções com o comando disallow. Isso irá depender da plataforma que você usa. Use os tutoriais acima para Tray, Vtex, Xtech e Wordpress.

CUIDADO PARA NÃO USAR Disallow: / E IMPEDIR A INDEXAÇÃO DE TODAS AS SUAS PÁGINAS! O arquivo robots é trivial para fazer um bom SEO.

Dúvidas? Comente este tópico.