小二CMS官网

百度:巧用robots避免蜘蛛黑洞

2018-01-30 17:29:07 关注:
摘要:百度站长平台刚刚发布了一个小技巧:巧用robots避免蜘蛛黑洞。比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高。如“500-1000之间价格的租房”,首先网站(包括现实中上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。
百度站长平台刚刚发布了一个小技巧:巧用robots避免蜘蛛黑洞。比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高。如“500-1000之间价格的租房”,首先网站(包括现实中上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。

这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:对于普通的筛选结果页,该网站选择使用静态链接,如: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构。

避免了黑洞的形成。扩展阅读:蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

你觉得这篇文章怎么样?

80 0
本文网址:百度:巧用robots避免蜘蛛黑洞
免责声明:文章《百度:巧用robots避免蜘蛛黑洞》来至网络,文章表达观点不代表本站观点,文章版权属于原作者所有,若有侵权,请联系本站站长处理!

扫描二维码与小二CMS创始人沟通:

小二CMS微信

小二CMS专注于高端网站定制、系统开发、商城开发、外贸网站建设、公众号开发、小程序开发、网站优化推广、安全运维等技术领域。是高端定制网站领域著名服务商!

相关资讯
返回顶部