服务器日志用来记录网站被访问的全过程,我们可以从中看到,什么时间有哪些用户(搜索引擎)来过?都访问过哪些内容?访问时是否出错?等一些基础的访问行为。
1、修正抓取分布
对于大型站点,尤其是海量数据的网站,相对每个页面资源来说,其获取到的抓取资源也是非常有限的。这很有可能就会导致些版块SEO产生问题。
比如网站有10个核心的栏目内容,但是其中有5个是被爬虫顿繁抓取的版块,而另外5个版块爬虫很少光顾,从而导致这5个版块的SEO很不好。从数据上看,就是前5个栏目的SEO表现非常好,后5个栏目的SEO数据非常难看。这种问题,通过日志分析,也很快就能找出来。找到问题后,通过一些技术手段,将抓取资源引导到后5个栏目,能够达到事半功倍的效果。
2、发现意外页面
通常情况下,SEO负责人对自身网站结构有清晰的认识,非常了解什么地方有什么页面。但是由于一些产品功能、交互的原因,或代码方面的原因,或其他原因,会有一些意料之外的页面生成。而且很多情况下,这些意料外的页面的量级很可能还不小,从而对网站SEO造成不小的麻烦。这种时候,只有通过日志才能发现。
3、发现内容问题
SEO中有一个点很难把握, 就是页面内容的质量到底好不好?
这种具体的情况很难判断,因为牵涉这个页面本身,以及这个页面在网站内、页面在行业内,甚至页面在整个互联网内的相对价值有多高。
有可能我们自身认为某个页面的内容的价值很高,但是,把它放在更大范围来看就很一般。从而使得其排名、流量表现都非常差。所以说做SEO并不是说你本身优秀就可以,你还需要做到比别人更优秀。
结合日志,通过数据分析,如果发现某些栏目页面、产品页面,其页面索引与抓取的比例非常低,搜索跳出率高,其实就可以说明这个页面本身质量不好、相对价值不高。从而可以帮助我们在一些内容优化上面,提供一些直观的数据证明与优化方向。
阅读本文的人还可以阅读: