找回密码
 注册加入
搜索
查看: 2958|回复: 0

搜索引擎是如何对SEO进行反作弊的

[分享]
发表于 2011-10-7 14:20:36 | 显示全部楼层 |阅读模式
、为什么搜索引擎要反作弊?
  对于seo的作弊行为,几乎所有搜索引擎都是反对的。seo spam 的破坏性是相当巨大的,它不仅直接破坏了搜索引擎网站赖以生存的关键所在,即每日数以亿计的用户搜索体验,同时也破坏了搜索引擎获得收益的主要来源,如竞价排名以及相关广告。这个很容易理解,做seo归根结底要从客户体验出发,不能为了seo而seo,搜索引擎算法的不断更新,更科学更人性化就是为了能给客户一个满意的搜索结果,而作弊行为必将破坏这种搜索体验,可以说触及了搜索引擎的根本价值所在,因此被严厉打击是情理之中。
  搜索引擎反作弊类同于互联网的病毒与反病毒。因此,作为搜索引擎,对待垃圾和作弊网站的态度也是高度一致:惩罚或者删除。几乎所有的搜索引擎官方站点也公布了一些原则,对作弊行为进行界定,并给出了对应的惩罚措施。
  2、如何反作弊
  搜索引擎作弊其实不仅仅是损害了搜索引擎拥有者的利益。从长远看,如果网站的本身质量并没有提高,而是通过搜索引擎作弊来吸引浏览者,那么网站最终还是得不到用户的青睐,无法留住浏览者,最终受到伤害的还是网站本身。
  beijingseo认为虽然通过技术手段不可能完全杜绝各种搜索引擎作弊行为,但还是能够有效减少这些行为。解决办法如下:
  (a)加强页面内容的智能判断。对于关键字堆砌和虚假关键字这两种作弊行为,应加强智能判断。例如从页面的部分提取,而非(title)(/title)或者(meta)(/meta)部分,判断关键字是否仅在某一段落内重复,以去除恶意重复现象。
  (b)网络爬虫隐身。无论是隐形页面、偷换页面,还是重定向,都会对网站的当前访问者进行判断,从而对网络爬虫和普通用户作出不同的反应。搜索引擎应该让一部分网络爬虫隐身,装扮成普通用户来访问网站,对网站进行测试,便可以有效杜绝这种类型的作弊。
  (c)网站历史记录。对网站的页面变更记录其历史。一般来说一个网站的非内容部分的页面变化是很小的,如网站目录结构、页面结构、很多特殊连接都是不经常变化的。如果某一个网站变化较大,就有必要对此网站作进一步的审核。这样做可以杜绝偷换网页这一作弊方法,并提高人工审核的效率。
  (d)网站评级。一般来说,好的网站上的链接质量也会很高,而一些垃圾网站上的链接也多是与其相似的网站。也就是说,网站也是聚类生存的。因此,可以对网站进行评级归类,以有效预防通过垃链连接来作弊的网站。
  通过以上四种方法,可以有效提高搜索引擎的反seo作弊能力,但这样并不能完全杜绝seo作弊。要想提高搜索引擎的反作弊能力,还必须要人的加入,综合使用各种方法,逐级分层审查:
  第一层是提高技术手段。例如加强页面的智能分析和网络爬虫的抓取能力,增加爬虫隐身能力。其目的是进行最底层的反作弊判断,判断的对象是页面,由电脑进行海量的重复性作业。
  第二层是网站分析。通过网站的历史记录与网站评级系统,对网站进行分析评价。目的是从中筛去合法的,找出有seo作弊嫌疑的网站,判断的对象是网站,由电脑和人进行比较筛选。
  第三层是最终评审。由人对筛选出的嫌疑网站进行试用、评审。判断的对象是网站,完全由人完成,并得出最终结论。通过电脑与人工的合作作业,可以基本上杜绝搜索引擎优化中的作弊行为,使搜索引擎的结果更符合浏览者的需要。
您需要登录后才可以回帖 登录 | 注册加入

本版积分规则

Archiver|手机版|小黑屋|Discuz!扩展中心 - 杭州富迪文化艺术策划有限公司 版权所有 ( 浙ICP备14042422号-1 )|网站地图QQ机器人

GMT+8, 2025-5-4 13:45 , Processed in 0.268061 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz! X5.0

© 2001-2025 Discuz! Team.|IP地址位置数据由 纯真CZ88 提供支持

快速回复 返回顶部 返回列表