SEO搜索引擎针反作弊算法策略分享

  • A+
所属分类:SEO基础知识

SEO搜索引擎针反作弊算法策略分享
自搜索引擎逐步成长为人们在互联网上经常使用的服务以来,就有人不断研究搜索引擎的排名机制,进而寻找搜索引擎排名的技术或逻辑漏洞,来快速提升自己网站的搜索排名,并且获得流量和收益。

长期以来搜索引擎处于防御一方

为了让用户在搜索之后获取满意的结果,搜索引擎就需要保证搜索结果质量,发掘真正内容优质、用户体验最佳的网页。对于搜索引擎来说,反作弊一直都是搜索引擎研究的重要课题,但是长期以来搜索引擎一直处于被动的防御地位,经常是发现搜索结果被作弊网页攻陷占领了,才去研究相应的反作弊对策和算法。那么搜索引擎在反作弊的过程中主要是如何操作的呢?

在搜索引擎的架构中过滤也是很重要的一环, 在Spider抓取部分会过滤掉重复和垃圾页面,在进行排序和呈现时同样还会进行一次过滤, 来保证搜索结果的质量。

反作弊就是过滤环节中的主要组成部分。当下搜索引擎排名的重要参考因素主要有内容、链接、网站权重和用户体验,所以作弊一般是从这几方面入手。 反作弊过程中是否会出现误伤,以及站长和SEO人员应该如何避免被搜索引擎误伤。

虽然搜索引擎针对每种作弊行为所做的反作弊动作和算法各不相同,但是大体上还是有”定规律可循的。搜索引擎会利用黑白名单和作弊特征研究两方面进行反作弊算法升级。

 

SEO搜索引擎针反作弊算法策略分享
搜索引擎的黑白名单

搜索引擎会根据网站内容的质量、权重和品牌建立白名单,同时也会找出明显作弊严重的网站建立期白名单。搜索引繁会认为白名单中网站所推好的网站都是好的、健康的网站,含有黑名单中网站链接的网站可能会存在某种问题。

其它情况中,链向白名单网站中的网站不定是健康的, 同时黑名单网站中链向的网站也不一定是不健康的。但是有多个白名单网站链向同个网站, 那么这个网站就很可能是健康的;同一个网站链向了多个黑名单中的网站,就可以把其认定为不健康的网站。

在整个互联网中,黑白名单中的网站不可能和名单外的网站都有直接链接关系,所以搜索引擎会给这种白名单的链接一定的信任值,这个信任值随着链接级数的增加而逐级衰减;同样,从黑名单网站反向开始,会给最终链接指向黑名单网站的各级链接一个不信任值,这个值也是逐级递减的。对于一个黑白名单之外且和黑白名单中网站没有直接联系的网站,搜索引擎会计算它得到的信任值和不信任值,当达到或超过搜索引擎设置的阈值之后,就会把其列为健康网站或者不健康网站。

这是种很常见的反作弊方式,在SEO工作中体现最明显的就是选择服务器和交换友情链接。选择服务器时,大家都希望自已独立使用一台服务器或者一个独立IP;选择虚拟空间时,也会检查相同IP的网站是否有作弊嫌疑,以免被相同IP网站连累。虽然百度官方声明不会按照IP惩罚网站,但还是远离作弊网站比较稳妥。交换友情链接时就更明显了,一般都会检查对方有无作弊嫌疑或降权嫌疑,以免自己把链接指向不健康的网站而遭到搜索引擎的惩罚。

站长和SEO人员在工作中,不仅仅要尽心尽力地运营自己的网站,还要避免自己和作弊处网站、垃圾站点有所靠近或关联,同时要尽可能地向优质高权重网站靠近或扯上关系,相信这也是大量分站长和SEO人员一直努力的方向。但是很少有朋友有心避免被反作弊算法牵连,搜索引擎的算法再精准也是人设计出来的,并不是神造的、完美无暇的,所以有作弊就会有作弊, 反作弊稍微严格一点就可能产生误伤,作为站长和SEO人员应该尽可能避免这种被误伤的情况发生在自己身上。

站长和SEO人员要潜心研究搜索引擎想要打击的作弊行为的特征。比如,某种作弊行为都会选择使用一套开源CMS程序或者模版,那么你就要尽可能避免使用同一个CMS和模版:买卖链接的网站般都会设置隐藏的链接块或文本块,并且卖的链接中经常会有医疗病种、或者其他暴利、高竞争的关键词,那么你就要尽可能地不使用隐藏的TAB来做友情链接,并且最好不要和搜索引擎重点打击行业的网站做友情链接等。搜索引擎打击所有的作弊行为中,肯定都会根据这种作弊行为的特征进行算法升级,那么作为“个“负责任的”站长或SEO人员就应该避免和这些作弊行为有相似的地方。

 

SEO搜索引擎针反作弊算法策略分享
最后,需要了解的是,针对反作弊,搜索引擎也并不是总处于被动状态。搜索引擎也在研究站长作弊背后的动机和站在对立角度审视自己的各种算法。

搜索引擎通过作弊特征进行反作弊算法升级

当发现某个对搜索结果影响很大的作弊网站或种新的作弊手法时,搜索引擎一般不会只是人工地把这个或这些网站降权或者屏献,而潜心研究这个网站或这些网站到底是怎么作弊的,以及钻了搜索引擎技术和逻辑上的什么漏洞,当发现漏洞后就会完善算法修复漏洞,同时对这种作弊方法进行有针对性的打式,比如百度这些年所发布的算法升级都是有针对性的,不是针对链接作弊,就是针对刷点击的行为,这些都是百度在研究作弊手法的特征后进行有针对性的算法升级。

百度的反作弊算法升级也有可能造成误伤

因为是针对某一特征的反作弊算法升级,这就有可能会出现这种情况:某个网站没有作弊,但是也有类似作弊站的某些特征,而被搜索引擎捎带处罚了一下, 视特征的符合程度遭受到处罚程度不同。也就是说搜索引擎在反作弊的算法升级过程中,很有可能会产生误伤。这种误伤会不会产生,以及误伤程度和误伤范围要取决于搜索引擎打击作弊的力度和算法的精度。

比如,百度有一次针对超链接作弊的算法升级过程中,只是取消了作弊链接的作用,而因为有很多有着优质内容的综合门户网站也都参与了此种作弊,所以才没有对参与作弊的网站进行打击。这种反作弊算法也就是把作弊的情况整理了一下,作弊站顶多失去作弊部分所带来的排名和流量,而没有得到其他额外的惩罚,这样没有作弊的网站就更不可能得到惩罚了,顶多有几个外链的作用消失而已。

搜索引擎建立作弊特征库主动出击

搜索引擎通过相关算法,把站长容易操纵的作弊因索根据特征从正常的算法中过滤掉,并不是一味地亡羊补牢和处罚作弊站点,这应该也是近年来很多站长或SEOer认为“SEO越来越难做”的主要原因之一。

搜索引擎人工干预自然搜索排名

在反作弊过程中,也很有可能会伴随着人工千预自然搜索排名,但是搜索引擎中的人工干预肯定不会是大众想象的那样频繁,也不是浅层次上的干预,否则搜索引擎自然排名的算法就可以丢弃了,搜索引擎也没有那么多专门来干预排名的人。但是不论多么大的搜索引擎,很可能内部都有专门的反作弊团队有权限对自然排名结果进行人工干预处理。

一般的网站不会被搜索引擎人工降权

一般来说,能够让搜索引擎人工干预的站点,肯定是严重背离搜索引擎运作机制,或者严重影响到了搜索引擎的搜索结果质量,这种站点一般在搜索引擎上获得了异常多的流量,否则搜索引擎为众多网站导流量,并不会特别注意到。也就是说很多自认为遭受了人工干预的网站,或许根本就没有达到被搜索引擎人工干预的资格。

搜索引擎也会抢打出头鸟

在SEO这一个行业内,通过会认为被讨论越多的站越容易被搜索引擎处罚,诚然正规的网站在SEO上也有很多值得讨论研究的地方,但在业内远不如对于作弊站点的讨论激烈。当搜索引擎从一些途径获得这些信息后,认为该站点的作弊行为已经产生了非常不良的影响,就可能会先进行人工干预,随后研究其作弊方法。

  • 我的微信
  • 技术咨询
  • weinxin
  • 微信公众号
  • 营销技巧分享
  • weinxin
马找钱

发表评论

:?::razz::sad::evil::!::smile::oops::grin::eek::shock::???::cool::lol::mad::twisted::roll::wink::idea::arrow::neutral::cry::mrgreen: