搜索引擎优化有它不会轻易改变的宗旨,也就是你的网站要符合搜索引擎的根本目的,给用户提供有用相关的信息。我想不管搜索引擎索引和排名技术怎么变化,这个宗旨在一段历史时期内不会有什么大的变化。
如果哪个搜索引擎脱离了这个根本目的,它也就离失败不远了。所以对网站运行者来说,你就必须提供大量对用户有用,与网站主题相关,最好是独创的大量内容。
SEO也有它与时俱进的地方。随着搜索引擎爬行索引和排名算法的改进,搜索引擎变得越来越聪明了。搜索引擎能够检测更多的作弊手法,能够通过多种途径决定一个文件对关键词的相关性,也能检测这个文件对用户是否有用。
在这个算法改进的过程中,网站建设者和推广者必须时刻注意,搜索引擎算法中又添入了哪些新的因素?和原有的排名因素权重有什么变化?
在搜索引擎优化早期,也就是5,6年前,最管用的手法就是关键词堆砌。在你的标题标签,关键词标签,网页内容里面,放上大量关键词,有时甚至是可以和网页内容无关的关键词,这就足够了。用不了几天,你的网站就可能在热门关键词下排到第一页。
但过了没多久,大部分人就意识到搜索引擎给标题标签,关键词标签,网页内优化因素很大权重,也就开始滥用这些标签,开始大量堆砌关键词,搜索引擎的搜索结果质量因此开始下降。当年的AltaVista地位相当于现在的Google,就是这样被摧毁的。
然后是Google发明了网页级别,以及基于网页级别的新算法。简单的说,就是外部链接越多,排名就越高。很快大家就意识到这一算法的漏洞,开始制造大量垃圾链接,去留言本论坛等地方留下各种不相关的链接,买卖PR,买卖链接,制造大量链接工厂,注册大量域名,然后互相链接起来等等等等。
Google也开始反击,加入了Sandbox效应等一系列反制手段。雅虎也有类似时间延迟效应,只不过力度没有Google那么大。有了沙盒效应或时间延迟效应,链接的效果显现的变得非常慢。作弊者往往也就失去了耐心,不太使用这个方法了。
同时,这些搜索引擎对链接分析技术的提高,能够检测出哪些链接是有意义的,哪些是作弊手法。
但是,不可否认的是机器并不像人那么聪明。人可以一眼看出哪些链接是纯粹为了增加链接,欺骗搜索引擎,哪些链接是有意义的投票行为。但搜索引擎蜘蛛离这一步还差的远,所以还是有无数的作弊者每天在制造着大量的垃圾链接。
现在搜索引擎越来越倾向于分析用户行为模式和用户与网站的互动性。网站推广者应该在诸如书签,网摘,Wiki,链接点击率,网页浏览时间,用户在网站的互动性等方面投入更多的精力。
作为一个合格的搜索引擎优化人员,对这些最新趋势,应该保持足够的敏感。
在看很多论坛的时候,发现不少人还在讨论怎样制造垃圾链接来欺骗搜索引擎。可以肯定的是,这些手段在今天管用,明天就不一定管用了。
来源:SEO每天一贴 Zac 昝辉
没有回复内容