我们在做优化时,往往会出现这样或那样的错误,对于优化过度或是优化不够都会影响到整体的效果,所以我们要找一个合适的度,以此来展现我们最大的能力。常常会发现,站长们在优化网站的时候,出现这样或那样的错误而导致我们的排名很不理想,从而纠结于此,下面就来说说我们在优化过程中经常都容易忽视的几点错误,进而发现网站存在的一些隐患和一些有碍关键词排名的错误。作为一个SEO工作者当然也必须要具备及时发现这些错误的能力,以快速达到网站优化改善的目的。
一、网站的各项数据检查
经常检查的收录数据,而非单单只看数量。我们要根据百度或谷歌提供的数据来观察收录的页面,并检查都收录了哪些页面,这些页面的质量如何是否存在大量的重复页面或无实际内容,质量低劣的页面。我们经常会通过收录数据观察到一些网站的收录的异常现象。像这些对网站优化是有害链接页面,都是我们要仔细观察的。像我们网站就出现过这样的问题如图:
二、页面样本文字检查
页面的样本文字占有比例的多少是我们直接检查的重点,因为样本文字会直接影响到我们网站的收录和长尾关键词排名。样本文字的内容若超过正文内容导致页面质量下降,影响排名和全站收录。
样板文字比较容易出现的是第一个就是分类过细,产品不多,分类过细导致每个页面的有大量的重复内容文字造成相似度过高。第二个就是新闻内容放置过多的简介,导致内容过多。
常见的就是每个网站底部的一个版权说明,有的网站会在下面放置过多的内容,比如地址,电话什么的,其实这些在网站其它地方已经突显出来了,就没有必要再次的重复出现,底部做到一个精简是最好的。
三、Robots.txt文件的检查
检查网站的Robots.txt是非常必要的,我们要知道我们的网站Robots.txt有没有起到净化网站的作用,就必须时刻检查我们的 Robots.txt文件。它在网站优化中起到相当大的作用,当蜘蛛搜索站点时,首先检查的是该网站的根目录下是否存在Robots.txt文件,它会按照该文件的内容来确定访问范围。Robots.txt文件就像网站地图一样,是给搜索引擎蜘蛛指明道路的,对网站的页面收录起到桥梁的作用。当然如果我们的网站连Robots.txt都没有编写那就相当于是让我们的网站在互联网上裸奔了,其结果可想而知。
四、网站路径设置检查
网站路径检查,主要是要查询网站的目录路径是不是唯一性,路径唯一性是避免权重分散的要点。检查路径的设置是否出现中文,如下图
因为中文路径更难被搜索引擎抓取,而且很难收录,笔者很早之前曾做过一个互动百科的词条就是这种情况,到现在还没有被收录。
五、网站的稳定性检查
页面稳定性的检查主要操作是要对IIS日志检查监控观察,这也是我们优化工作者必备的能力之一。如果百度蜘蛛(Baiduspider)和谷歌机器人(Googlebot)均出现了 500 、503、504等状态码,次数越多说明是服务器和程序越不稳定了。如果出现404越多,说明死链接越多。另外如果出现了大量的200情况,你一定要检查一下所在搜索引擎爬取程序的IP,最好是检查一下是否假的百度蜘蛛或谷歌机器人爬取程序。真假蜘蛛辨别方法:Baiduspider ip的hostname以 *.baidu.com的格式命名,非 *.baidu.com即为冒充,建议使用DNS反查方式来确定抓取来源的ip是否属于百度。在windows平台下,可以用nslookup命令反解ip来判断是否来自Baiduspider的抓取。点击 “开始”-“运行”-“cmd”-“输入nslookup IP地址”-“回车”。