作为一名seoer,对网站日志分析是必需要掌握的一项基本的技能,通过日志分析可以分析爬虫抓取页面有效性,通过日志分析蜘蛛返回的状态码能及时发现网站里面是否存在错误或者蜘蛛无法爬取的页面,排查网站页面中存在的404错误页面,500服务器错误等这些噪音内容上噪音页面上(重复页面,低质量页面,空内容页面,404页面,不排名页面等)
一、网站日志可以为我们做什么?
1、 可以分析爬虫抓取页面有效性(减少搜索引擎在一些噪音页面上:重复页面,低质量页面,空内容页面,404页面,不排名页面 的抓取频率);
2、金华网站建设公司排查网站页面中存在的404错误页面,500服务器错误等
3、页面重要内容是否被爬虫完整爬到并且快速遍历;
4、正确分辨蜘蛛爬虫
二、常见HTTP状态码解读
1、200代码,表示蜘蛛爬取正常
2、404代码,访问的这个链接是错误链接
3、301代码,永久重定向
4、302代码,表示临时重定向
5、304代码,客户端已经执行了GET,但文件未变化。
6、500代码,表示网站内部程序或服务器有错
接着,我列举一个网站日志的案例:
日志里的含义,可以大家看下网站日志中各个数据都代表什么意思,总之这个文件是记录的一天发生在网站上的一些行为。当我们拿到这么一个网站日志,我们就可以审视我们的日志,并且通过对日志文件公司网站建设分析解决网站存在的问题;
三、日志代码解读
从日志文件当中可以解读出两个部分内容:
1、搜索引擎抓取情况
从日志文件中,可以大家看到搜索引擎抓取了一些404页面及低质量重负页面(噪音行为)
备注:可以通过nslookup ip 识别蜘蛛的真假
/date-2016-01.html(低质量重负页面)
/author-1.html(低质量重负页面)
/downloads/(低质量页面)
/contact.html(死链接接),但这里有个问题,这个页面返回的状态码为200而不是404,但页面却跳转到404页面,从中可以发现服务器设置一定有问题;
所以,当我们有一些页面不希望他们抓取的时候,我们需要在robots中进行规范。规范robots一个重要的手段,就是robots.txt。爬虫纠偏,让爬虫花更多的精力放在我的详情页面上。
2、用户访问网站情况
关于用户网站访问情况, 主要分析用户访问网站行为轨迹及用户属性,在这就不进行讲述
版权说明:如非注明,本站文章均为裕腾智工作室原创,转载请注明出处和附带本文链接
http://www.ying88.net/seoyouhua/天门网站建设公司42.html
南京牧狼文化传媒有限公司简介:
牧狼传媒,牧者之心,狼者之性,以牧之谦卑宽容之心待人,以狼之团结无畏之性做事!
公司注册资金100万,主营众筹全案服务、网站营销全案服务、网站建设、微信小程序开发、电商网店设计、H5页面设计、腾讯社交广告投放以及电商营销推广全案等相关业务,致力于为客户提供更有价值的服务,创造让用户满意的效果!
为百度官方及其大客户、苏宁易购、金山WPS秀堂、美的、创维家电、新东方在线、伊莱克斯、宝丽莱等国内国外知名品牌服务过,服务经验丰富!同时,公司也是南京电子商务协会会员单位、猪八戒网官方认证签约服务商、江苏八戒服务网联盟、南京浦口文化产业联合会会员单位,可以为您提供更好的服务!
主营项目:众筹全案服务、网站营销全案服务、网站建设、微信小程序开发、电商网店设计、H5页面设计、腾讯社交广告投放、竞价托管、网站优化、电商代运营等
合作客户:百度、苏宁易购、饿了么、美的、创维家电、新东方在线、宝丽莱、金山WPS秀堂、伊莱克斯
资质荣誉:百度商业服务市场2017年度最佳图片服务商、南京电子商务协会会员单位、猪八戒网官方认证签约服务商、江苏八戒服务网联盟、南京浦口文化产业联合会会员单位、八戒通TOP服务商、"易拍即合杯"H5创意大赛"三等奖"。