前几天写了robots.txt的规则误区并介绍百度和Google的robots工具的使用,介绍了几个robots.txt文件的规则的误区,然后发现其实不止那些,还有很多大家没有注意的误区。
今天重新列举一下常见的robots.txt实际使用中的误区:
公司网站建设误区1.Allow包含的范围超过Disallow,并且位置在Disallow前面。
比如有很多人这样写:
User-agent: 临沂网站建设公司 *
Allow: 临沧网站建设公司 /
Disallow: /mulu/
想让所有蜘蛛抓取本站除/mulu/下面的url之外的所有页面,禁止抓取/mulu/下面的所有url。
搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。也就是说禁止抓取/mulu/目录这条规则是无效的。正确的是Disallow应该在Allow之上,这样才会生效。
误区2.Disallow命令和Allow命令之后没有以斜杠/开头。
这个也很容易被忽视,比如有人这样写Disallow: 123.html ,这种是没有效果的。斜杠/表示的是文件对于根目录的位置,如果不带的话,自然无法判断url是哪个,所以是错误的。
正确的应该是Disallow: /123.html,这样才能屏蔽/123.html这个文件,这条规则才能生效。
误区3.屏蔽的目录后没有带斜杠/。
也就是比如想屏蔽抓取/mulu/这个目录,有些人这样写Disallow:/mulu。那么这样是否正确呢?
首先这样写(Disallow: /mulu)确实可以屏蔽/mulu/下面的所有url,不过同时也屏蔽了类似/mulu123.html这种开头为/mulu的所有页面,效果等同于Disallow: /mulu*。
正确的做法是,如果只想屏蔽目录,那么必须在结尾带上斜杠/。
文章来自逍遥博客,本文地址:http://liboseo.com/1193.html,转载请注明出处和链接!
南京牧狼文化传媒有限公司简介:
牧狼传媒,牧者之心,狼者之性,以牧之谦卑宽容之心待人,以狼之团结无畏之性做事!
公司注册资金100万,主营众筹全案服务、网站营销全案服务、网站建设、微信小程序开发、电商网店设计、H5页面设计、腾讯社交广告投放以及电商营销推广全案等相关业务,致力于为客户提供更有价值的服务,创造让用户满意的效果!
为百度官方及其大客户、苏宁易购、金山WPS秀堂、美的、创维家电、新东方在线、伊莱克斯、宝丽莱等国内国外知名品牌服务过,服务经验丰富!同时,公司也是南京电子商务协会会员单位、猪八戒网官方认证签约服务商、江苏八戒服务网联盟、南京浦口文化产业联合会会员单位,可以为您提供更好的服务!
主营项目:众筹全案服务、网站营销全案服务、网站建设、微信小程序开发、电商网店设计、H5页面设计、腾讯社交广告投放、竞价托管、网站优化、电商代运营等
合作客户:百度、苏宁易购、饿了么、美的、创维家电、新东方在线、宝丽莱、金山WPS秀堂、伊莱克斯
资质荣誉:百度商业服务市场2017年度最佳图片服务商、南京电子商务协会会员单位、猪八戒网官方认证签约服务商、江苏八戒服务网联盟、南京浦口文化产业联合会会员单位、八戒通TOP服务商、"易拍即合杯"H5创意大赛"三等奖"。