笔者在百度站长平台检测自己的博客时,出于优化的惯性,对博客的Rbots进行了检测,进而在百度搜索了wordpress博客robots的写法设置问题,看了很多wordpress高手对robots优化设置后,终于有所领悟,在此也分享给一些wordpress新手看看如何去善用robots.txt对wordpress博客进行优化。
一、先来普及下robots.txt的概念:
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。这个文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。
robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。
二、使用robots.txt需要注意的几点地方:
1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;
2、每一行代表一个指令,空白和隔行会被忽略;
3、“#”号后的字符参数会被忽略;
4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;
5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。
6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。
三、Wordpress的robots.txt优化设置
1、User-agent: *
一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。
2、Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/
屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。
3、Disallow: /*/trackback
每个默认的文章页面代码里,都有一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。
4、Disallow: /feed Disallow: /*/feed Disallow: /comments/feed
头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。
5、Disallow: /?s=* Disallow: /*/?s=*
这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。
6、Disallow: /?r=*
屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)
7、Disallow: /*.jpg$ Disallow: /*.jpeg$ Disallow: /*.gif$ Disallow: /*.png$ Disallow: /*.bmp$
屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。
8、Disallow: /?p=*
屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。
9、Disallow: /*/comment-page-* Disallow: /*?replytocom*
屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。
10、Disallow: /a/date/ Disallow: /a/author/ Disallow: /a/category/ Disallow: /?p=*&preview=true Disallow: /?page_id=*&preview=true Disallow: /wp-login.php
屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。
10、Sitemap:http://***.com/sitemap.txt
网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。
上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。
好了,以上就是对利用robots.txt对wordpress博客进行优化的详细内容,希望可以帮助和我一样刚接触wordpress博客的同学。
过来看看博主;前段时间友链很多都因为空间不稳定或者因为备案问题只是都已nofollow掉,过后也没有过多关注、所以一时忘记去掉、已更改;
@春熙路 : 好的没关系 😀
表示没有搞得这么复杂,就加了个地图~
@君少 : 我7月换的域名,还是整好一点。
@小灰 : 我这个人比较懒 ,目前收录还凑合,就不想搞这个了,不过一般很牛的网站,这个搞得都很层次分明
@君少 : 卖主机可不能懒,口碑最重要.
找个插件写一下就OK
@BigCat : 貌似这个没有
robots.txt 这个文件是蜘蛛要访问你的网站的时候第一个访问的文件,所以它应该是很重要吧。 😀
@Aaron : 可以屏蔽不想被抓取的链接
@小灰 : 是的,我的是个人博客 这些都无所谓了。 哈哈!
@Aaron : 嗯,这个随意的。
🙁 不太敢用以前有过错误使用导致全站被屏蔽的……
@c : 额,是吗? 拿我要不也去掉?
我觉得我还没入门 还看不懂代码
看起来很麻烦,有这么多吗
@leo : 不麻烦,直接添加到robits.txt文件就好。
看起来不错的内容,
@望月的博客 : 😯 ???
这个文件好像我就拿来设置网站地图而已,其他的看来还需要继续学习才行
@梦轩丽人 : 我也参照别人的设置,随便设置了下!
哇,好全啊。今晚回去按照你的优化一下 😐