最近被服务器搬迁的事情搞得头晕脑大,因为东莞理想家教网一直都是稳定得很,因为主机商政策问题,就从惠州搬到东莞,期间导致网站无法打开,现在百度竟然k了首页。看来打不开网站真的很严重!从事SEO工作也有一段时间了,感触最深的还是网站建设容易,网站优化难。难就难在搜索引擎排名问题,笔者手头上也有5、6个网站了,很多网站来不及优化就被百度K了,很多网站优化好了排名却不见了。所以,很多时候对seo的理解也是感慨万千,一切尽在不言中了。现在日志分析已经么多少seoer去做了,如果还有机会做的话,经常会遇到一个奇怪的现象,很多网站每天都有蜘蛛爬行,但收录却不见有。也有一个奇怪的现象,搜索引擎更新了,但是排名却不见有。这样的问题在笔者看来是最见怪不怪了,笔者手头上很多企业站被K了,出现的情况基本上都是如此。快照天天更新,排名却百名以后。怪谁呢?百度?程序员?自己?如果我们从搜索引擎蜘蛛的角度去看待一个网站,在抓取、索引和排名时会遇到什么问题呢?解决了这些问题的网站设计就是搜索引擎好友的。
1、搜索引擎蜘蛛能不能找到网页
要让搜索引擎发现网站首页,就必须要有外部链接连到首页,找到首页后,蜘蛛沿着内部链接找到更新的内容页,所以要求网站要有良好的结构,符合逻辑,并且所有页面可以通过可爬行的普通html链接达到。Javascript链接、Flash中的链接等搜索引擎蜘蛛一般不能跟踪爬行,这样的页面就会导致收录问题。在这里还有一点,网站所有页面点击举例不能太远,最好在四五次点击之内。要被搜索引擎收录页面需要有最基本的权重,良好的网站链接结构可以适当传递权重,使尽量多的页面达到收录门槛。
2、找到网页后能不能抓取页面内容
被发现的url必须是可以被抓取的。数据库动态生成、带有过多参数的url、session ID、整个页面是Flash、框架结构、可疑转向、大量复制内容等可能是搜索引擎敬而远之。某些文件站长可能不希望被搜索引擎收录,除了不连接到这些文件之外,更保险的方法是使用Robots文件禁止蜘蛛抓取。
3、抓取页面后怎样提炼有用信息
关键词在页面重要位置的合理分布、重要标签的撰写、html代码精简、起码的兼容性等可以帮助搜索引擎理解页面内容,抓取有用信息。这一点就是我们平时所说的内容原创性。搜索引擎对原创性的内容还是比较友好的。只有搜索引擎能顺利找到所有页面,抓取这些页面并提取出其中国的真正有相关性的内容,网站才可以被视为搜索引擎友好的。