一对一免费咨询: 13913005726 025-66045668

  百度站长学院前几天公布了一个案例,里面提到一些细节,特别值得站长重视。

  它这个页面对爬虫爬取做的优化,直接将图片二进制内容放到了html中导致页面长度过长,大小164K,导致内容不被百度收录。

  

百度:网页长度大于128k会影响甚至不收录

  百度:网页长度大于128k会影响甚至不收录

  网站如果针爬虫做优化,那么网页的长度最要在128K以内,不要过长。不然爬虫抓取内容后,页面内容过长被截断,已抓取部分无法识别到主体内容,最终导致页面被认定为空短而不收录。

  言下之意,这可能是百度技术缺陷导致,如果网页在128K以上,爬虫无法抓取就无法收录。如果各位站长的网站内容过长,尽量删除一部分不太重要的信息,以保证内容收录。

  百度工程师建议:

  1、不建议站点使用js生成主体内容,如js渲染出错,很可能导致页面内容读取错误,页面无法抓取

  2、 如站点针对爬虫爬取做优化,建议页面长度在128k之内,不要过长

  3、针对爬虫爬取做优化,请将主题内容放于前方,避免抓取截断造成的内容抓取不全

  来源:卢松松博客,欢迎分享

  原文地址:http://lusongsong.com/blog/post/8966.html

*请认真填写需求信息,我们会在24小时内与您取得联系。
致力于为客户创造更多价值
13913005726 025-66045668