请选择 进入手机版|继续访问电脑版
发新帖

Web 2.0 峰会:Google 与 Wikipedia 谈垃圾过滤

5530 25
核心提示:链接不免碰到垃圾信息。Spammer 们用来推广站点垃圾,一些老CMS 体系中发明马脚将垃圾信息注入受害者网站




在好莱坞如不雅你被狗仔队盯上上,解释你是成功的,在硅谷,如不雅你被垃圾信息盯上,也解释你是成功的。周三上午,在 Web 2.0 峰会( Web 2.0 Summit),来自 Google, Reddit, Pramana 以及 Wikipedia 的代表畅谈了若何抵制垃圾信息。


来源:informationweek.com  翻译:COMSHARP CMS (锐商企业CMS)官方网站
                                                                                


et1181261054291.jpg

针对垃圾信息,Cutts 建议应用 Akismet 一类的信息过滤办事,安排 CAPTCHA,勤打补丁,甚至对注册收费等手段进行应对。他建议人们彪炳思维圈子,应用一些料想不到的方法对于垃圾信息。如不雅你让垃圾信息宣布者产生挫败感,比向他们收费还有效。





Google 的反垃圾信息团队的主管 Matt Cutts 说,如不雅你供给链接相干的办事,就不免碰到垃圾信息。Cutts 谈到了3种类型的垃圾信息,Spammer 们用来推广站点的垃圾链接;向那些许可用户供给反馈的网页提交垃圾内容;大年夜一些老的 CMS 体系中发明马脚将垃圾信息注入受害者网站。


Reddit 的开创人 Steve Huffman 谈到了他们应用的一些办法,对垃圾信息发送者进行误导。他表示,Reddit 是一种类似 Digg 但比 Digg 更好的办事,Digg 许可用户提交他们爱好的内容的链接,并对宣布的内容进行投票,获得投票数越多的内容被浏览的几率越大年夜。


但 Reddit 有所不合,在 Reddit,有些投票不被计算。一旦 Reddit 探测出或人是在发送垃圾信息,他的┞肥户会被抵制,但 Reddit 不会通知发垃圾信息的人,他的提交还正常进行,但他提交的内容不会宣布。Huffman 表示,我们应用一些技能让垃圾信息发送者认为他们的手段得逞。


Jonathan Hochman 是 Wikipedia 的治理员,他谈到了 Wikipedia 应对垃圾信息和蓄意破坏时应用的一些策略。他说,我们花费了很多时光让 Wikipedia 保持干净。Wikipedia 中 20% 到 30% 的编辑操作是蓄意破坏以及对蓄意破坏的修复。


Wikipedia 是一个许可任何人介入编辑的在线百科全书,但少为人知的是,这个站点依附的是计算机主动编辑,Hochman 解释道,一些主动法度榜样介入了编辑工作。


比如 ClueBot,它介入了大年夜约80万篇文┞仿的编辑,ClueBot 做了大年夜量文┞仿答复复兴与修复工作,如不雅有人赓续地对某个页面进行破坏,它会通知人进行干涉。


Praman 的 CEO Sanjay Sehgal 则讲述了他们的 HumanPresent 技巧,该技巧用来保护他们方才宣布的,尚不决名的海量玩家游戏,他说,CAPTCHA 不起感化,因为很轻易被破解。


Pramana 的技巧会测验测验辨别真正的用户与主动法度榜样。一个游戏中有太多机械人玩家会让游戏崩溃。这个技巧不仅仅用于阻拦 Spam,还赞助改良用户体验,供给流量数据。自负年夜应用了 HumanPresent 技巧,Pramana 发明 12% 到 15% 的流量来自机械人法度榜样。

精彩评论25

SEO优化   学习于  2016-7-14 18:35:29
楼主是优化界超人
SEO服务   学习于  2016-7-14 17:37:31
顶顶多好,多学点优化技巧
SEO外包   学习于  2016-7-14 18:07:53
怎么优化网站说的非常好
b3j   学习于  2016-7-14 17:59:09
不错不错这下会优化网站了
tk6j   学习于  2016-7-14 18:24:55
LZ真是SEO的人才
宝马高考生   学习于  2021-2-23 06:52:44
网站优化排名竞价托管公司
军情解码   学习于  2021-2-23 13:28:38
镇江seo网站推seo优化公司
非主流   学习于  2021-2-27 04:27:50
常熟临沂网站优化公司
么么哒   学习于  2021-3-2 02:37:31
江油公司网站优化报价表