什么是robots.txt? robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 robtots.txt必须放置在我这根目录之下,而且,文件名必须全部小写,这两点是做robots.txt优化设置必须注意的。 robots.txt在SEO中起作用 搜索引擎是遵循robots.txt这个搜索蜘蛛遵循协议的。因此,如果我们网站上的某些内容不希望搜索引擎爬取收录,那么,我们就可以利用这个robots.txt来设置一番,设置搜索引擎蜘蛛不要爬取。语法如下: User-agent: * Disallow: /禁止抓取的路径/ 以上这个语法是禁止所有搜索引擎蜘蛛,如果你指针对百度或者谷歌,那么将User-agent: baiduspider即可。注释:google蜘蛛:googlebot 百度蜘蛛:baiduspider。 robots.txt的一些使用小技巧 网站为什么要使用伪静态?因为url地址是类似静态的,所以,像织梦那样的动态评论,对排名起不了作用,而搜索引擎蜘蛛一旦爬取收录发现是毫无价值的信息之后,是不是的来段收录暴涨,收录大跌的情景,相信站长对这类情况就显得比较抓狂了。那么,Disallow: /*?* 禁止访问网站中所有的动态页面,可以帮你很好的解决这类难题了。 当然,网站的后台文件是不希望暴露在公众视野的,故因此可利用robots.txt中的Disallow: /后台登陆路径/很好的解决这一问题。当然,如果是图片类的站点,希望防止盗链减轻服务器压力的话,那么Disallow: .jpg$就可以很好的解决这一个难题了。 至于网站地图的重要性,相信大伙儿都清楚的指导,那么,搜索引擎蜘蛛爬到一个网站的时候,最先爬取的robots.txt这个协议,想让网站收录更多吗?那么,在Sitemap: 网站地图url,就是个不错的应用技巧了。