Os spiders (também chamados de robôs, bots ou crawlers) são programas que as ferramentas de busca vasculham a internet para indexar o conteúdo dos websites. O spider encontra websites seja através do registo de uma página seja através do link a partir de outras páginas.