今天BTV导航网的小编为你讲一下SEO怎么禁止百度蜘蛛爬某个文件夹相关的内容。
禁止搜索引擎抓取网站页面,最常用的就是使用robots文件,禁止百度蜘蛛爬行和抓取某个文件夹,可以用下面这段代码: User-agent: Baiduspider Disallow: wenjianjia/
问题:SEO怎么禁止百度蜘蛛爬某个文件夹?
p>回答:禁止搜索引擎抓取网站页面,最常用的就是使用robots文件,禁止百度蜘蛛爬行和抓取某个文件夹,可以用下面这段代码:User-agent: Baiduspider
Disallow: wenjianjia/
p>这里简单解释下几个字段概念:Baiduspider:这个是百度搜索引擎蜘蛛;
Disallow:这表示禁止,不需要蜘蛛抓取;
wenjianjia/:这里替换你要禁止百度蜘蛛爬行的文件夹名,这里要注意下,如果在文件夹名称的后面加了 / ,就表示禁止抓取文件夹下面的页面,比如说www.test.com/wenjianjia/abc.html,但是www.test.com/wenjianjia/这个栏目页面还是会被抓取的。所以,想要www.test.com/wenjianjia/也不被抓取的话,就要去掉后面的 / ,也就是下面这样的代码:
User-agent: Baiduspider
Disallow: wenjianjia
p>关于SEO怎么禁止百度蜘蛛爬某个文件夹的问题,本文就简单的介绍到这里,总之使用robots文件是比较方便的,大家可以使用上面的代码,修改成自己的文件夹名称即可。如果要禁止两个文件夹,那就多复制一行,比如:User-agent: Baiduspider
Disallow: wenjianjia_one/
Disallow: wenjianjia_two/
p>通过对SEO怎么禁止百度蜘蛛爬某个文件夹的详细介绍,希望对你有所帮助,我们提供了更多和SEO怎么禁止百度蜘蛛爬某个文件夹类似的相关内容推荐,可以你更全面的帮助你解决问题。我们BTV85网址导航还提供网址收录服务,你可以注册提交你的网站信息,帮你引导搜索引擎蜘蛛,同时还有网站SEO优化交流微信群,里面很多SEO高手和大咖,加友链,可以免费进群。