新闻动态

三点细节快速提高网站收录

2012-5-24 来源:网络

    网站收录量的高低虽然跟排名权重都没有直接关系,但是收录量却是判断站点内容是否得到搜索引挚认可的一条重要的途径。很多站长在论坛中经常的提问怎么提高自己的收录量,笔者认为,对于站点的收录量高低,其实只要做好几个方面细节,效果是很容易看到的。
    其中有三个笔者认为比较重要的,一、页面停留时间;二、页面代码是否利用蜘蛛爬行;三、无效链接的处理。只要做好这三个重要工作,对于快速提高站点收录量就很容易了。今天笔者跟大家谈谈自己的操作实际经验。
    一、用户在页面中的停留时间
    有一个因素不但影响到排名权重,对于搜索引挚判断站点内容也是非常关键的,那就是用户在页面中的停留时间。其实如果你仔细分析一下比自己排名好,却外链不多的对手站点,可以得到这样的一个数据,即使不靠外链也能获取稳定排名的原因,在于对方的站点用户比自己站点的更有忠诚度,而这些如果对方给你看统计数据的话,那就非常容易看出结果了。用户在页面中的停留时间越长,自然搜索引挚就会把这些页面归类为对用户有价值的,自然就会被收录了。
    毕竟谁会花大量的时间去看自己不感兴趣或者是对自己没用的页面内容呢?所以说,当页面内容对用户产生价值时,用户自然就会花更多的时间去深入阅读理解内容,同时搜索引挚以这点为由马上把页面给收录了。那对于咱们提高站点的收录量不就非常有帮助了吗?面对用户有价值的页面内容,搜索引挚会不收录吗?而且只要坚持的时间久了,充分得到搜索引挚的信任,那么自然而然后期站点内容就会被优先收录的,这是对提高收录量非常有效的方法之一。
    二、精简代码,提高蜘蛛爬行顺畅度
    很多时候很多站点收录量上不去并非是内容没有价值,也不是内容没有可读性,原因在于网站页面的代码不利于蜘蛛爬行,如果一个站点的页面的目录超过三到五层,如此有深度的目录网址,怎么可能让蜘蛛爬行得到呢?就像论坛一样,一般一个贴子的前三页被收录的机率比较大,而超过了三页的都基本上不被收录了。那么咱们要让站点收录量飞起来,首先必须保证网站页面代码利于蜘蛛爬行,既可以让用户快速找到页面的内容,同时也不要让内容页面藏得过深。毕竟对于蜘蛛爬行抓取而言,酒香也怕巷子深啊。还有一点,尽量的把网站的代码精简,把一些没用的空格符、回车符、换行符、重复的DIV、STRONG标签去除掉,而且在所有的图片中都打上ALT标签,这样对于提高页面对蜘蛛的友好度非常有帮助,同时精简代码可以从根本上缩小页面的体积,利于提高页面的完全打开速度,对收录也是很有效的。
    三、无效链接的处理
    在网站优化中,有一个元素对收录量影响非常之大的,那就是无效链接。如果用咱们生活的理解习惯,网站中的无效链接就相当于现实生活中的断头路、死胡同之类的,如果你要从这样的道路走过去,不借助任何的外力外特之类的肯定走不过的。同样的无效链接对于蜘蛛爬行抓取也是一样的关键,咱们可以这样分析,当蜘蛛进入站点首页要爬行进入每个页面时,如果站点中的无效链接过多,那自然就会让蜘蛛经常性的爬行到了死胡同,而这样不但影响到站点在蜘蛛心目中的形象,更重要的是,当蜘蛛发现你的站点断头路过多,自然就会在潜意识中把站点判为垃圾网站,久而久之,网站收录量也会越来越低的。所以针对无效链接引起的网站收录量上不去,咱们可以通过设置301重定向,把一些有规律的无效页面的链接重定向到新的页面链接中。如果对301重定向不了解,则可以利用ROBOTS和404页面引导。个人比较推荐404页面,因为这样可以在不损失收录量的情况下有效的把无效链接给解决掉,让蜘蛛可以通过404页面的引导链接继续深入爬行抓取站点页面。
    很多站长在站点收录量下降时,更多的是去大量的通过增加外链来恢复其收录量。笔者认为,虽然外链与收录量的高低有点关系,但是对站点收录量上不去的原因,其实更多的是网站内部的原因,最简单的就是蜘蛛无法爬行到内容页面进行抓取,连目的地都到达不了还谈何提高收录量呢?所以说,站点收录量上不去甚至出现持续下降,首先不是去盲目的增加外链,应该更多的把精力放在网站内部的检查,尽量把一些细节方面的因素处理掉,这才是治标又治本的有效方法。

上一页 下一页