很多的人咨询网站优化的ur规则设计有哪些,那么,下面就由深圳市信息技术有限公司为大家介绍一下。
网站优化的ur规则设计有哪些,介绍以下几点:
第一、动态页面url的伪静态化
动态页面虽然能够被搜索引擎抓取,但是由于其url是带参数的,容易导致很多不同参数的页面出现的内容是相同的,搜索引擎收录过多重复页面是比较伤的,所以在seo领域里面是不太喜欢把动态的url页面展示给搜索引擎的。不把动态的页面展示给搜索引擎,所以最好的方式就是将动态的url页面进行伪静态化,然后将动态页面进行屏蔽,屏蔽的方式可以用nofollow标签或者robots文件进行设置。然后静态化的页面展示给搜索引擎,进行收录和索引。
第二、减少目录层次
url最好是需要足够简短,让人能够记住,除了缩减网站域名的长短外,还有一个方法就是减少目录的层次,这样是对页面收录有一定帮助的。通常有的网站直接将网站希望收录的页面放到网站根目录之下,每一个页面有着一个独自的id,这是一个不错的方式,但是需要视网站的性质来决定是否要采取该种方式。如果网站是一个博客类型的网站,更新的内容是一个大杂烩的分享式文章内容,是很适合该种方式的。这是一种比较极端的方式,其他的网站内容较多时候,比如我们网站www.hkxiaopan.com,里面内容有很多并且有很多的各种类别的内容,这样就需要进行设置分类目录了,但是这样的目录尽量控制在两层以内,是比较适合网站优化的,再多就显得累赘了。
第三、包含网站关键字
网站包含中文关键词的拼音,这样能够让用户更容易记住你,增加网站的品牌效果,同样能够增加网站关键词的信任度。
第四、不规范网址的优化处理
网站的不规范网站是需要进行优化处理的,避免有一些不规范的网页地址被收录,我们需要对这些网站进行优化处理规范化。例如有很多的带端口的网址或者不带www的网址,需要对其进行301重定向等操作或者网页头文件中使用canonical属件。
第五、 屏蔽对于网站优化无意义的页面
网站之中是有着很多的页面是不希望搜索引擎对其进行收录的,因为很多的页面对于网站是没有优化意义的,屏蔽这些页面是有必要的。蜘蛛爬取网站时最先查看的就是网站的robots文件,如果有设置robots文件则是先查看robots文件允许爬取的页面,如果没有设置则对网站进行蜘蛛默认的爬取方式。除了使用robots文件还有nofollow标签进行屏蔽垃圾url页面,该种方式则是将a标签的属性中设置。
温馨提示:以上是对“网站优化的ur规则设计有哪些”的相关介绍,其次,如果你需要企业网站优化请咨询。