Web2.0革命(五)搜索 3.0版

来源:百度文库 编辑:神马文学网 时间:2024/05/01 06:43:11
搜索是 1.0时代的产物

  上一篇文章谈到Google带来的是网络媒体与网络广告的经营典范,完全符合Web 2.0 聚沙成塔,聚少成众的特质。似乎,Google将会是新的典范而持续不坠,从此过著幸福快乐的生活。然而果真是如此吗?

  我们不要忘了,搜索引擎本身是个 1.0时代的产物,他的存在已经超过十年,而他的使用方式:所有人连上某个固定网站,透过中央主机的运算能力来运算搜索结果,是非常不符合Web 2.0 精神的。

  此外,关键字搜索技术的精确度虽然在Google手中发挥到极致,然而不少时候总还是会找出一大堆跟自己所要资料毫不相干的网页出来。下一代更精确的搜索技术,遂成为各大互联网巨头竞逐的焦点。

  然而,藉著Web 2.0 「由群众分享和参与」的特性,不少人认为「社会性搜索」可以补足技术的不足。电脑毕竟是由程式撰写,思考逻辑跟不上人脑的弹性,因此透过人的辅助来提升搜索精确度似乎可行。

  具体的作法,是透过互联网用户在发表文章或张贴图片时,自己帮自己的内容下关键字(所谓的「标签」),而当其他人用这些关键字搜索资料时,更容易找到自己张贴的内容。

  搜索成本才是问题

  这就是「社会性搜索」。透过每个人都把自己产出的内容加上关键字或标签,而搜索引擎更针对这些标签作索引和计算,精确度可能被补足,因为这些关键字毕竟是人脑所下,可能符合其他人脑的认知逻辑。

  这个看起来与技术无关的搜索方法,或许可称为2.0 版的搜索,一样是拜互联网的储存与带宽成本持续下降,人人都能在网络上产出内容所赐。否则这样的搜索方式在十年前是很难诞生并普及成为主流的。

  然而,「社会性搜索」并非终极的解决方法。事实上目前任何搜索方法所面临的问题,除了精确度问题,还有成本问题。这个问题可以简单的用下列公式来描述:

  

  「你在网络上的每一次搜索都是要钱的」。过去数年间,由于全球搜寻数量不断暴增,造成经营者必必须持续添购新的机器设备,并且不断扩展摆放这些设备的场地,以求提供精确与快速的搜索服务。

  从上图公式可看出,如果经营者的成本控制不当,将会造成每次搜索的平均成本增加。然而如果因为节省成本而导致搜索精确度和速度下降,虽然会降低平均搜索成本,但是用户却可能会开始流失。

  

 迈向搜索 3.0版

  拜过去互联网的储存与带宽成本持续下降所赐,购买机器设备以及设备本身体积的缩小以至于机房能摆放更多的设备而缩减场地成本,经营者的压力稍微舒缓。然而,降低运算成本的努力却从来没停过。

  Google是搜索引擎经营者中很早就看透此点的,因而对于机器设备的成本斤斤计较。他的主机很少向外采购,数以万计的服务器都是自行研发设计,可以购买廉价的PC零组件来组装而成,大幅降低成本。

  尽管如此,Google仍然必须在全球布建资料中心(Data Canter )以求提供更佳服务品质。其中,在美国哥伦比亚河岸兴建的俄勒冈资料中心足足有两座足球场这么大,里面摆满了各式主机服务器。

  这样的思维并没有不对,只是非常的 1.0。搜索引擎经营者的财力再雄厚,能够拥有多少台服务器?十万台?一百万台?这种数量能够与全世界数以亿计的个人电脑数量相提并论吗?

  让我们再重复一次Web 2.0 的精神:「聚沙成塔,聚少成众」。当搜寻引擎用户按下搜索钮的那一瞬间,是交给美国俄勒冈州的资料中心服务器来找比较快,还是由全球大量的个人电脑一起帮你找比较快?

  P2P 搜索:下一代的搜索方式

  事实上,Google开发了许多技术,让单一问题可以切割成几个,分别交由几台服务器同时处理,称为并行处理。此技术可能已用在Google 搜索引擎上。你的每一次搜索,可能动用到好几台服务器帮你处理。

  问题在于上述「好几台服务器」,何时会变成「全世界所有连上网络的个人电脑」。你的每一次搜索,会动用到好几千台摆放在全球不同家庭里,如同你正使用的个人电脑来帮你做处理,而非Google主机。

  

  当有一天,技术突破再加上全世界平均宽带及储存成本不断降低到突破某个临界点时,现行的Web 搜索将可能被推翻!虽然,这样的期待显然背后有技术门槛与安全问题,短期内不易突破。

  此外还有经济问题:为什么我的个人电脑与家用宽带要帮你做搜索?或许「有一天我在搜索时也会需要你帮忙」是个不错的理由,而这个理由听起来更超越Web 2.0 的。这种搜索,我们不妨称为P2P 搜索。

  随著互联网的储存与宽带成本持续下降,把一个问题丢给全世界的电脑来帮忙处理的成本,会不会有一天比丢给自家的服务器来处理还低?这是全球搜索引擎业者在未来五年内要严肃思考的课题。