Para impedir a indexação de alguma página em específico do seu site, você deverá configurar o seu arquivo robots.txt.
O comando disallow vai impedir a indexação.
Exemplo:
Disallow: /sugestoes.html
Também é possível bloquear o acesso a diretórios e pastas dentro do seu site usando o mesmo caminho, mas ao invés de informar a página exata dentro do site, usa-se:
/conteudo - assim, arquivos e diretórios que começarem com “conteudo” não serão indexados pelo Googlebot;
/conteudo/ - o diretório “conteudo” dentro do seu site não será indexado pelo Googlebot;
Aqui no fórum você tem o tutorial de alteração do robots para algumas plataformas específicas de e-commerce, listarei abaixo:
Basta agora identificar quais são as páginas que não devem ser indexadas e adicionar as exceções com o comando disallow. Isso irá depender da plataforma que você usa. Use os tutoriais acima para Tray, Vtex, Xtech e Wordpress.
CUIDADO PARA NÃO USAR Disallow: / E IMPEDIR A INDEXAÇÃO DE TODAS AS SUAS PÁGINAS! O arquivo robots é trivial para fazer um bom SEO.