• 欢迎访问奇跡の海网站,本站不上传任何资源,所有资源均来自于网络,欢迎加入奇跡の海~! QQ群
  • 本站下载资源为网络上收集整理而来,并且以计算机技术研究交流为目的,版权归原作者所有,仅供大家参考,学习,不存在任何商业目的与商业用途.
  • 本站系统镜像均来自于官方原版,ed2k可视为P2P下载链接。所有操作系统默认均为试用版,如有正版密钥可以有效激活,本站不提供任何激活和相关服务。

wordpress如何设置最佳robots.txt 对 wordpress博客进行优化

WP其他 奇跡の海 2年前 (2017-04-08) 219次浏览 已收录 0个评论 扫描二维码

wordpress 如何设置最佳 robots.txt 对 wordpress 博客进行优化

分享给一些 wordpress 新手看看如何去善用robots.txt 对 wordpress 博客进行优化。

一、先来普及下robots.txt 的概念:

robots.txt(统一小写)是一种存放于网站根目录下的 ASCII 编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。这个文件用于指定 spider 在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。

robots.txt 目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt 里的指令参数都有不同的看待。

二、使用robots.txt 需要注意的几点地方:

1、指令区分大小写,忽略未知指令,下图是本博客的 robots.txt 文件在 Google 管理员工具里的测试结果;

2、每一行代表一个指令,空白和隔行会被忽略;

3、“#”号后的字符参数会被忽略;

4、有独立 User-agent 的规则,会排除在通配“*”User agent 的规则之外;

5、可以写入 sitemap 文件的链接,方便搜索引擎蜘蛛爬行整站内容。

6、尽量少用 Allow 指令,因为不同的搜索引擎对不同位置的 Allow 指令会有不同看待。

三、WordPress的 robots.txt 优化设置

1、User-agent: *

一般博客的 robots.txt 指令设置都是面对所有 spider 程序,用通配符“*”即可。如果有独立 User-agent 的指令规则,尽量放在通配“*”User agent 规则的上方。

2、Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/

屏蔽 spider 捉取程序文件,同时也节约了搜索引擎蜘蛛资源。

3、Disallow: /*/trackback

每个默认的文章页面代码里,都有一段 trackback 的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。

4、Disallow: /feed
Disallow: /*/feed
Disallow: /comments/feed

头部代码里的 feed 链接主要是提示浏览器用户可以订阅本站,而一般的站点都有 RSS 输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。

5、Disallow: /?s=*
Disallow: /*/?s=*

这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和 TAG 等页面的内容相近。

6、Disallow: /?r=*

屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)

7、Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$

屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。

8、Disallow: /?p=*

屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会 301 重定向到固定链接,但这样依然造成蜘蛛资源的浪费。

9、Disallow: /*/comment-page-*
Disallow: /*?replytocom*

屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。

10、Disallow: /a/date/
Disallow: /a/author/
Disallow: /a/category/
Disallow: /?p=*&preview=true
Disallow: /?page_id=*&preview=true
Disallow: /wp-login.php

屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。

10、Sitemap:http://***.com/sitemap.txt

网站地图地址指令,主流是 txt 和 xml 格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是 Sitemap 的 S 要用大写,地图地址也要用绝对地址。

上面的这些 Disallow 指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的 robots.txt 是否规范。

好了,以上就是对利用 robots.txt 对 wordpress 博客进行优化的详细内容,希望可以帮助和我一样刚接触 wordpress 博客的同学。


版权声明:本站所有文章和资源使用BY-NC-SA协议授权发布 , 转载应当以相同方式注明文章来自“SeaOMC.COM->wordpress 如何设置最佳 robots.txt 对 wordpress 博客进行优化!在下边可以分享本文哦!
本文最后更新于2018年3月14日,已超过 1 年没有更新,如果文章内容或图片资源失效,请留言反馈,我们会及时处理,谢谢!
喜欢 (0)
[]
分享 (0)
奇跡の海
关于作者:
一个WordPress菜鸟!
发表我的评论
取消评论

表情 贴图 加粗 删除线 居中 斜体 签到

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址