独步天下的谷歌算法

来源:百度文库 编辑:神马文学网 时间:2024/04/28 14:24:04
[我读]独步天下的谷歌算法 xilei 发表于 2009-2-15 10:19:00


    任何人都可以召唤谷歌主页并动员起谷歌搜索引擎的全副力量,而不必为登录提供任何个人信息。性别、种族、年龄、受教育程度、职业——一切都不必公开。搜索引擎只搜索它所接收的词语,以及连同搜索请求一道传过来的不起作用的网络地址。

    谷歌之所以拥有回应匿名提交搜索请求方面的技术,源自其创始者们致力于尽一切可能从网络站点而非用户方提取信息。所谓算法就是为解决具体问题而设立的一套规则:它是用于构建复杂的计算机软件的基础材料。谷歌的PageRank算法就是用于对网页的链接进行分析,辨别某一个页面同其他页面何者名气更大。谷歌的搜索引擎不需要了解用户的任何情况,而只需猜测当搜索语词被键入时用户的心里在想什么。

    若能在匿名搜索领域成为一种核心力量,将对谷歌有着极大的帮助,而且这种帮助的方式还是谷歌在创办之初未曾预料到的。随着在线世界以指数次幂的规模持续扩大,在线收集的个人信息飞速增加,用户们已经不安地看到一个又一个公司或蓄意或无意地释放了一些被用户当作个人隐私的信息。隐私每泄露一次,人们的提防心就加重一次;于是用户们希望得到承诺,使他们的个人信息受到切实保护。令谷歌感到幸运的是,它的搜索服务不需要了解用户的身份就可以开始工作。

    谷歌的搜索方法借重数学模型,不需要个人信息,因而它提供的广告是由搜索内容决定,而不是由人工提交的,这样就能保证广告服务对象的身份不致泄露。谷歌的这种方式使它在与Facebook等社交网站的经济效益竞争中处于有利位置,因为后者向广告商提供的是接近具体用户目标的机会,而谷歌出售给广告商的只是接触被用户视为个人敏感信息的机会。

    谷歌优于其社交网络竞争对手的地方在于毋需了解其用户的个人信息就可以完成网络搜索,不过,这个优点却被它在除搜索以外的其他许多服务项目上的扩张行为抵消了;在这些服务——如它的电子邮件服务Gmail——中,谷歌所获取的资料是极其私人性的。谷歌知道,用户们也许会担心它的雇员可以随意偷看谷歌用户的电子邮件。这个问题不仅谷歌有,微软、雅虎以及美国在线的雇员也可以在用户私人的电子邮件中乱翻,而且这几家公司的服务器所处理的电子邮件信息比谷歌要多得多。所以被担心陌生人擅自阅读他们个人信息的电子邮件的用户单独挑出来,这对谷歌的确有点儿不公平。就谷歌而言,它为了让公众放心而采取的措施无论如何也不能完全令人信服。谷歌说,只有一小部分职员被允许接触由Gmail保存的电子邮件,因此它们不会泄露。但是,令人不太放心的是,公司还规定了一些特殊类别的用户,他们的电子邮件是放在谷歌的雇员禁止进入的地方,“无论他是公众人物,还是某个具体公司雇员,还是谁的熟人”。这能禁止电子邮件被陌生人当作消遣物来阅读吗?为维护这一规定而制定的惩罚措施——解雇——足够严厉吗?能有效杜绝这种行为吗?规定公布后,有违规行为被查处吗?如果某个用户的电子邮件被偷,他能得到通知吗?

    正如谷歌所断言的,这类担心是没有事实根据的,对某些公司安全缺口的担忧使人们对所有保存用户个人资料的公司都产生了不信任感。尽管2007年的一篇文章报道了Facebook的雇员(而非谷歌雇员)偷看了用户的资料(据推测可能是为了检查可能的候选人的日期),有的人篡改了电子邮件信息,还有的人更换了用户的文件夹的照片,但谷歌的私密性保护措施也受到了越来越多的怀疑。

    在谷歌创办时,佩奇和布林还不必有隐私方面的担忧。他们一心一意地钻研如何让评定网页的过程自动化。他们的方法无疑优于雅虎依靠人工编辑来维持一个用人手挑选的网站指南引擎的运行。谷歌取代雅虎进而赢得领袖群伦地位的故事的启发性就在于,谷歌在计算机的应用方面比那些大公司更加灵巧。

    谷歌依靠搜索引擎起步,它只能从事检索和分析网页的单调工作。2000年,公司与当时比自己大得多的雅虎公司达成了一项交易——为雅虎的用户进行网页搜索。这对谷歌的财务而言算不上一宗大买卖,也无助于树立起自己的品牌。雅虎的用户甚至不知道谷歌才是提供搜索结果的“批发商”,而是以为这些结果都是雅虎找到的。但是这笔交易使谷歌得到了某种比销路和品牌意识更具战略价值的东西:它为谷歌提供了大量的搜索查询的第一手资料,这是谷歌改进搜索技术急需的原始材料,有了这项内在的能力,就可能将数据量的增长转变为搜索结果质量的提高。

    随着收集的信息越来越多,佩奇和布林的技术也变得越来越“聪明”,自然,俩人迟早会开始思考如何着手处理无所不包的原始数据。如何使用这些没有相互联系的具体信息,在当时还没有被当作最迫切的问题。先收集,后分析。如果这些信息还没有被数字化,那么谷歌就不计成本将其数字化。谷歌最早的网络经验体现在它比任何公司都更具有搜集更多信息的智慧上,它以多种方式让搜集信息的规模受人喜爱,产生交叉检索、相互参照的更加密集的集合,贡献出世界上复杂程度最高的搜索结果。

    谷歌比它的主要竞争对象雅虎和微软更早就认识到,一个将所有信息全部网罗殆尽的系统,依靠人工是根本无法完成的。正如人类的思维要依靠协调发展的神经系统内的连接一样,数字化的信息搜集也要依靠以软件带动的相互对接,而不必介入人工。软件的算法固然是由人制定的,但最终产品的复杂程度远远超过了人类凭借手工所能达到的水平。

    在公司建立的过程中,佩奇和布林运用了许多不同的算法。但在哲学定义上,这些不同的法则却不属于物质范畴:谷歌的所有算法都可以说属于总的算法的组成部分,所谓“算法”就是软件公式的简化形式,谷歌的创立者们以为它们是解决任何现存问题的最好手段。他们对算法的力量坚信不移,因而采取了一种颇引人争议的推论:由算法所导致的结果无需以人工介入的方式进行编辑、调整甚至触摸。对于处理世界上的所有信息的系统进行调节的唯一途径是将一切过程都自动化。算法也可以用手动的方式加以调整和改进,但是修补过程只能由算法在进行搜索之前自行完成。一旦他们允许对算法进行复评,并在搜索完成之后用搜索结果来修补,这种人工介入就会使系统变慢,使它步履蹒跚。在谷歌,实现规模至高无上,而这必须依靠完全自动化的过程。

    在谷歌成立之初,算法的力量在搜索业界并未得到广泛的赞赏。在雅虎-谷歌结盟时期,谷歌似乎不想对任何人摆出竞争姿态。在它的早年,即上世纪末和本世纪初,谷歌还没有找到明确的发展方向,也无法使人相信自己是一家能够将全世界的信息都组织起来的公司。倒是雅虎牢固地树立了作为值得信赖的信息来源的形象,似乎完全有可能将自己的任务完成好。作为门户网站,雅虎是许多网络用户在线访问的第一个地方,而且公司提供了一目了然的服务和信息。这使它成为用户必须访问的最可靠的网站。它提供的内容包括电子邮件、分类广告、游戏、新闻、体育、天气、股票行情以及管理员认为能吸引访客进来并使他们留下来的一切信息。

    如果它的用户感到有必要搜索网络,雅虎就能充当一个被公认为最权威的向导,因为它是由网站编辑亲手编纂的,他们仔仔细细地做着去芜存菁的工作,为网站整理清单,将内容分门别类层层分级。但是公司的管理层却不将他们稳定而高质量的网站目录系统视为值得珍视的战略财富。公司的观点与当时流行的看法完全相同,认为网站索引只不过是公共门户网站的一个次要组成部分,三分之二的雅虎访客都是为了其他目的或寻求其他服务而来。

    在雅虎,网络搜索可以分为两个互不相干的步骤,当然,其中隐藏着相当的复杂性。第一步,当搜索词语提交后,雅虎就对由它自己的编辑们编制的网站名录中的主题词表进行查找,如果搜索词与它索引表中的任一词语相匹配,那么相关的目录项就会显示出来。如果没有相匹配的结果出来,那么搜索就会进入第二个阶段,雅虎将这个词语送到与之订有契约的外部搜索引擎上,由后者在它所搜集和整理的所有网站上的网页的拷贝页中进行查找。这第二步几乎被业界的每一个人都视为无趣的幕后服务,这种服务从任何可互换的提供者那里都可以得到,他们之间并无明显的差异。一个个看上去都十分相似,所以雅虎也定期更换为它提供幕后服务的公司。

    2000年,雅虎决定将分作两步的搜索过程合并,并将此项业务交给新的一揽子服务提供商——谷歌。在当时还很弱小的谷歌看来,能以成立刚刚两年的资格就得到雅虎交付的如此重大的使命,无疑很有成就感。谷歌搜索的质量相当之高,它已经在强手如云的领域里脱颖而出。根据2000年对于用户体验的一项研究,在13个搜索网站中,谷歌名列第一。此外,谷歌之所以能得到雅虎的合同,不是因为它的搜索结果比此前的Inktomi公司好,而是因为当时的谷歌正愁无米下锅,所以它开给雅虎的提供同样服务的价格是最低的。在Inktomi丢掉了雅虎的合同后,它的一名负责人嗤之以鼻道:“我们不会为了赢得生意而不计代价。”

    雅虎之所以未把谷歌作为潜在的竞争对手,原因就在于谷歌不同于Inktomi,它披着一件“零售商”的外衣——它自己的网站,它可以向顾客提供更好的搜索结果,从而为自己吸引越来越多的访问者。在谷歌与雅虎签订提供搜索结果的合同两年以后,谷歌在美国搜索业务市场的份额就达到了雅虎的水平。与此同时,谷歌在全球范围内也跃居前列,到2002年4月,谷歌就承担起全世界范围内47%的搜索量,而雅虎的比例是21%。尽管如此,直到又两年之后的2004年,雅虎才意识到,它与谷歌的合作是个巨大的错误。于是,雅虎立即在自己的网站用自己的搜索引擎换下了谷歌的引擎。雅虎试图使人相信,它仍然控制着一个功能,它终于懂得,这个功能对它继续保持成功者的位置至关重要。然而此时,谷歌作为搜索中心的地位已经得到了巩固。

    雅虎甚至从未近距离地追上谷歌。根据一项研究,2007年5月,谷歌在美国在线搜索所占的份额已经超过了50%,雅虎占26%,而微软只占10%。谷歌的份额持续扩大,到2008年1月,谷歌占有了58%,而雅虎则掉至22%。新闻网站Topix.net的CEO里奇•斯克伦塔说出了一个相当具有说服力的事实:谷歌所占有的搜索份额远远高于上述市场分析的结论,甚至早在2006年底就已经超过了70%。2007年初,斯克伦塔承认,他的数据表明,谷歌的市场份额实际上是78%~80%,但他用四舍五入的方法把这个比例降到比较保守的70%,“以使之更加可信”。

    2008年,当微软洽购雅虎时,公司的雇员们都发表了意见,认为两家的工程师能合并为一支队伍,将更有利于与谷歌展开竞争。但是谷歌的算法之所以在它还是一家小公司的时候就能得到较好的搜索结果,关键在于谷歌工程师队伍的质量,而不在于它的人员数量。

    无论是微软还是雅虎,两家公司对于谷歌算法的威力的认识都过于迟缓。在谷歌浮现的早年,雅虎就受到依赖人工编程这个注定要倒霉的决定的拖累。1998年,在40人的雅虎索引维护团队中负责的斯里尼瓦桑(SrinijaSrinivasan)说,她和她的新编辑们总是赶不上网站的增长速度,尽管他们已经开始对“无限的资源”进行了自行处理。从这个较早的时候开始,他们就已经不再勉为其难了——而是决定简单地满足于将自己选出的东西描述为“已有的东西当中最好的”。当然,凭什么他们肯定自己能从急剧膨胀的数据池里鉴别出最好的东西,这是一个难以回答的问题。

    而就在此时,谷歌已经享受到了依靠不断更新的技术所带来的好处。算法塞进的数据越多,结果就越好。公司并不隐瞒算法所处理的网页到底有多少——2004年,他所公布的最后数字是对80亿个页面做了索引,此后它就决定不再提供更新数字了。但即使在2000年,观察家们就已经极力称赞谷歌的搜索结果与其他的引擎相比具有显著的优势。丹尼•苏里文在《搜索引擎报告》中写道:

    当我对一群人说起搜索引擎并提到谷歌时,听众中有些人便会有不正常的反应。他们微笑、点头,就跟你在发现了一个别人不知道的秘密通道时也会有的那种表情一样。每次我说起这些事,都会看到有越来越多的人像这样微笑、点头,为发现了谷歌而惊喜。

    谷歌研发了一种更加复杂的算法,它可以根据一个给定的搜索词语来选择哪类广告在它的搜索结果上出现,从此,它与竞争对手的距离就更加拉大了。谷歌采用拍卖机制,让赞助商竞标,从而确定他们愿意为每一个点击支付的最高金额。这种方式是谷歌的任何竞争者都可以仿效的。但谷歌还有一个令人意想不到的手段,保持它网站上的广告带来的利润远远超过其他任何网站发布的广告,即采用算法对赞助商在历史上的表现进行评估,看看他的广告对点击率的吸引力空间有多大,出价最高的竞标者不一定就能得到最好的广告位置,还要分析他历年的统计数据,看他是否最有可能为谷歌带来最高的回报,既要考虑到预期的点击数,又要考虑平均每一次点击创造的价值。谷歌受命履行的搜索越多,关于广告效益的历史数据收集得也就越多,它的评估体系就越精确。多亏谷歌公司拥有了同行业无人能够复制的算法,谷歌引擎的每一次搜索才能带来其他任何人都难以企及的收益。

    微软一直囿于软件设计方面没有人能出其右,所以未能及时注意到谷歌软件的威力。要让人们承认像谷歌这样的相对缺乏经验的公司能够研发出比微软的产品更加复杂的软件,似乎不太容易。2004年,有一篇博客提到了谷歌的搜索结果比微软的好得多,这引起了一阵不安。在谷歌搜索栏中键入“微软博客”,就可以直接链接到微软雇员的博客。但同样的搜索词放在微软自己的MSN服务器中,却会导向西雅图一家日报的一名记者的博客,因为它凑巧包含了频繁提到“微软”字样的段落,并且拒绝搜索引擎的算法。这件事令人非常窘迫,因为将谷歌的搜索结果优于微软的事实公开出来的是微软雇员罗伯特•斯科博(RobertScoble)在微软博客上写的一篇博文。

    微软的管理层并未制止斯科博的言论,但谷歌誓在Web搜索中获得更多份额的雄心却受到了鞭策。微软的研发人员叛逃到谷歌的现象也带来了不少麻烦。2004年,当微软最享有声望的软件开发人员之一的马克•卢科夫斯基(MarkLucousky)遇见微软的CEO史蒂夫•鲍尔默(SteveBallmer)时告诉他,他已经辞职并且加入了谷歌,鲍尔默听到这消息时非常震怒。在后来一起因另一名谷歌雇员辞职前往谷歌而引起诉讼时,卢科夫斯基提交了一份书面证词,其中回忆道:当他告诉鲍尔默他已经辞职并接受了谷歌的聘用时,鲍尔默从办公室的一头将一把椅子扔了过来,并喊叫着要“埋葬”谷歌的埃里克•施密特。据卢科夫斯基的证词说,鲍尔默还威胁道:“我要宰了谷歌这……养的”。——在这里《旧金山新闻》策略地使用了几个连字符,以免直接使用鲍尔默的语言。

    当微软的主席比尔•盖茨在2004年瑞士达沃斯世界经济论坛上被记者问及他是如何看待谷歌的这个问题时,他的回答比鲍尔默坦率得多。他慷慨地给了谷歌一些他所能想到的最高级的夸奖——谷歌所聚集的“高智商”使他想起了“20年前的微软”。在搜索引擎领域的竞争中,他承认“他们打到了我们的痛处”,但他认为,微软在占据所有搜索80%以上的最普通查询中的表现都是“好的”。他解释道:它的错误在于没有注意那些次要的主题,因为“那是质量评价的关键所在”。他宽容地微笑着,预言微软不久就会在创新方面超过谷歌,并在整体上赶上它。

    微软的管理层鼓励员工们使用MSN的搜索引擎,同时要点击上面的广告,而不允许使用谷歌,把钱送给这个主要竞争者。微软的一名软件开发人员亚当•巴尔(AdamBarr)保留着一篇写于2005年的博客,标题显得有点尖酸刻薄:“骄傲地服务于我的老板”,总的意思是说:企图用“高压手段”迫使员工使用公司的产品而不去解决产品的缺陷。如果公司雇员都不能自由地选择使用自己团队的服务,那就说明这种服务的缺陷已经相当明显了。

    巴尔(Barr)也不能同意“不要把钱送给我们的主要对手”的说法,他写道:

    呸,我们自己喜欢苹果公司的iPod音乐播放器和iMac电脑,我用CorelDraw绘图软件从事编辑,我买微软出版公司的多个竞争对手出的书(更甭说只买一家出版社的书)。去他的,我就用Firefox浏览器,当然我认为这不干钱的事儿。不管怎么样,我每天也许会做上十几个决定,它们都会对微软的账本底线产生一点小小的间接影响。我正在订票的航空公司会在后端服务器中使用微软的产品吗?那家餐厅会在它的收款机里运行视窗系统吗?我医生的办公室里的微软软件都是得到合法授权的吗?天晓得。是的,我是微软的员工和股东,但我也是个消费者,我觉得我有权决定我自己的钱该怎么花(或我眼球的印象)。

    鲍尔默认为,如果公司以建议态度要求员工们使用MSN,看看它哪些地方还可以做些微调以求得性能进一步完善,这倒是可以接受的。第一个在他的博客上跟帖的是另一个微软雇员亚当•赫尔希(AdamHerscher),他们认为MSN尚未做好与谷歌的搜索引擎进行肉搏战的准备。赫尔希写道:“我敢说,谷歌端到端的用户经验跟MSN的经验水土不服。”随即他又做了一些详细的比较,最后总结道:“先不说系统,我会尽可能地试用MSN。但如果谷歌有了相同的好东西(也就是一旦谷歌提供更好的服务),我就会继续使用谷歌——我这种做法说不定对微软更好。”

    2006年4月,微软聘请外来者斯蒂文•贝尔科维茨(StevenBerkowitz)担任在线部门高级副总裁,负责对搜索服务的改造,公司希望借此能扭转在搜索服务方面的颓势。作为极其流行的Hotmail电子邮箱服务的提供者,MSN每个月的访问量达到1100万用户,排名美国第二。然而,访问者对MSN提供的搜索服务仍旧不感兴趣。2005年3月MSN的搜索量占有市场份额的16%,而一个月后贝尔科维茨上任时,这个数字竟跌到了13%。

    2006年底,当时担任另一个搜索网AskJeeves(后改名为Ask)的CEO的贝尔科维茨坦率地谈到了他所面临的困境。MSN遍布全球的各种Web设备和服务创造了总数高达4.3亿人的骇人的用户群,但是“其中使用我们的搜索服务的人却相当少。”他说,“我的首要战略就是要保证这些人不再流失。”

    如果说谷歌的“高智商”创造了一种令微软的工程师们至今无法赶上的算法,那么微软却可以从事一种全新的创造,就是企图证明没有高效能的算法恰恰是一个优点,它表明了本公司的人工服务所具有的水平。在贝尔科维茨的指挥下,微软企图翻盘,它在广告里打出了新的口号:“算法,来会会人工服务。”2006年秋天在《华尔街日报》等报纸上刊登的整版广告上,微软试图用这种方式粉饰它的不足:“我们还是明说了吧,我们参加这个游戏太晚。我们承认这一点,但我们不甘心从此退出而成为搜索史的注脚,我们已经决定重新书写崭新篇章。”广告文本以否定的方式描绘算法,把它说成只不过是“一个复杂的数学等式”,得出的结果仍需以某种方式进行再阐释“才能为我们大家所理解”。为了更具有说服力,微软还在它的搜索结果中添加了一些新的东西,比如什么鸟瞰图,什么实时交通信息之类,说这类东西“显得更加……人性化”。这种论调中最奇怪的地方是,它几乎就要使人相信,它在装备方面之所以能远远地超过谷歌,恰恰因为它没有那种“高智商”的拖累。微软的广告自夸道,它的最新版本改进了搜索结果的显示方式,这是由“我们的人”来实现的,“其中有些人甚至算术不及格。请设想一下吧”。

    微软还做了其他尝试:它打开支票簿,出资征求使用它的搜索服务的合作伙伴。不像“算法,来会会人工服务”的广告战,“微软网络搜索服务信用担保”不是由微软公司发布的。约翰•巴特利(JohnBattelle)在《搜索博客》中透露了这则消息,再加上微软缩减用于顾客使用其服务的费用的细节被公开,这引起了微软对谷歌算法的严重恐惧。为了回应报纸上的集中批评,微软派出WindowsLive的全球销售及市场总监亚当•索恩(AdamSohn)在线回答记者的提问。但是要从正面角度讲述微软的确打算替消费者付账,他又没什么话好说,他所能提供的最好的东西就是这个苍白的套话:“每当有人创新时,总是会出现反对者的。”

    微软的声誉受到了伤害,更重要的是它在多个领域阻止谷歌的实力稳步壮大的企图失败了。在搜索方面,谷歌继续在市场上攻城略地。在更新的领域,如YouTube在线视频,微软几乎无法与谷歌相比。即使是自己的核心软件业务方面,谷歌也在慢慢地用免费的在线服务进行蚕食,与微软的Outlook、Word、Excel及相关软件直接竞争。微软不缺少现金——2007年9月,它从手指缝里就流掉了210亿美元——但是这笔钱却不能为它买来能够有效地与谷歌的多面出击相抗衡的条理清晰的策略。至于斯蒂夫•贝尔科维茨这位被任命为微软在线服务集团资深副总裁并有责任将新思想带入该集团的外来者,他的任期也并不长,进入微软尚不满两年,就从这个位置上离开了。

    谷歌对算法的信赖不仅给了竞争者们有力的一击,并且取得了品牌合并所带来的额外收益。它的名称成了上网搜索的同义词——googling现已成为通用名词。公司现在已经与高级搜索密不可分,就连声称自己的搜索能力比雅虎和微软都更加令人印象深刻的Ask公司,也试图标榜自己拥有的是可以和谷歌相匹敌的、自己的算法。

    Ask公司企图通过提供最纯粹的算法赢得市场份额,2007年春,公司发起了“滚石算法”(TheAlgorithmRocks)的广告攻势。电视广告、户外广告牌和印刷广告铺天盖地,皆旨在对公众进行“教育”,以使每个人都懂得“并非所有的搜索引擎都一样,重要的是它们所使用的算法”。在thealgorithm.com网站,Ask对“算法的历史”做了漫不经心的、带有喜剧意味的长篇讲解(“罗伯特•弗罗斯特(RobertFrost)从未写过算法,这真是件好事”)。深藏不露的是一个秘密演讲,说的是关于Ask的算法是如何与谷歌的算法同时研制成功的,但所遵循的技术路线不同,它是用另外两个公司——Teoma和DirectHit——开发的技术和并而成的。

    Ask的广告代理Crispin,Porter+Bogusky公司的首席创意官亚历克斯•博古斯基(AlexBogusky)在运动发起时解释道,算法是一个“有趣的词,大部分人——如果不是所有的人——平时都没听说过”。Ask计划展开为期一年的广告宣传战役,目的就是要“让这个词在消费者的日常生活扎下根来”。但令Ask公司及其广告代理感到遗憾的是,这个词早在广告战役开始之前就得到了广泛的传播,同谷歌密不可分了。在广告攻势开展三个月后,国内围绕谷歌开展的一项调查的结果显示,一般公众在看到Ask的广告词“我们就是算法”时,总会把“我们”当成谷歌。

    纯算法的方法在搜索引擎业界的专业观察员中引起了广泛的批评。《波音-波音》(Boeing-Boeing)的科利•多克托罗(CoryDoctorow)认为,给网页评级的算法“包含着这个软件的编程人员的偏见、希望、信任和猜测”。蒂姆•奥赖利(TimO’Reilly)2008年指出,人类在了解了算法如何运作之后,便将这个系统当成了游戏,设计出在网页评级中能获得高级评价的商业性网页,并在搜索结果中占据最顶级的位置。他说,聪明的用户知道应继续浏览到搜索结果的第二页,以避免被占据第一页显著位置的垃圾结果所干扰。

    在公司起步阶段,谷歌的创办者们就已坚信,算法,唯有算法才可以决定搜索结果。这个方法在2004年受到了严峻的挑战,当时用户们注意到,当输入搜索词Jew时,一个反犹太人的网站就会出现在谷歌搜索结果的顶端。谢尔盖•布林和拉里•佩奇一样,都是犹太人,他们收到了来自朋友们的许多电子邮件,要求他进行人工干预。布林说,他也对这个网站十分反感,“但是排名的客观性是我们的一项重要原则。我们不要让个人的观点——无论是宗教的、政治的、种族的还是别的——影响我们的结果”。

    从那时起,谷歌的创建者们对于政治问题的敏感有所增加,他们用人工手法降低了反犹太人网站的级别。但公司一直坚持认为,摒除人类偏见的唯一办法是把最终的发言权交给算法。谷歌的研究部主任彼得•诺维奇(peterNorvig)在2006年重申了这一点:谷歌能够禁得住诱惑不去理会个别人的埋怨,拒绝对搜索结果的顺序作小的调整,那是“因为我们认为这里一旦开个口子,后面的漏洞就会越来越大”。

    尽管如此,如果遇到非人工因素引起的算法方面少量的简单错误时,谷歌还是允许作一点细微的调整。例如,一个关于“O’Reilly”的搜索结果仅与保守党时事评论员比尔•欧莱利(Bill’Reilly)相关,把其他可能的结果(如名列“财富500强”的O’Reilly汽车部件公司)都排除在外。谷歌承认这是个问题,但这是由特殊情况造成的,对算法的等级排名来说是个例外。经过调整后,关于“O’Reilly”的索引结果的第一页分为三段,第一段是混杂的O’Reilly链接,第二段是O’Reilly汽车部件公司,第三段是BillO’Reilly。布林和佩奇懂得,人工介入的调整手段,决不能频繁使用;然而他们也完全承认,人类能够充当质量管理的检察员。谷歌聘用人工评估员对算法经各式微调后所推出的结果的质量进行检查——2007年,谷歌在世界范围内与1万人签订了合同,请他们做质量评估。但他们的反馈只用于对算法本身进行调整,而不涉及单独词语的搜索结果。如果谷歌允许在搜索之后用人工对算法进行复评或对结果进行调整,那么系统必然会慢到无法接受的程度。在谷歌,对规模的追求永远是第一位的,这就要求几乎完全依赖自动化程序(另一个小小的例外是它希望用人工排除那些已经被用户举报为垃圾的链接)。雅虎无法随着Web的增长而扩展由人工编辑的目录,暴露出依赖人工的系统的局限性。谷歌要避免雅虎的错误,就必须具备与Web同步增长的能力。

    谷歌的算法不能顺利地转为Web以外的信息种类,如图书和视频。Web以链接的形式提供了丰富的内部数据,算法可以利用它们来判断它所处理的信息的质量。那么,它能够掌握内部线索不相同的数据吗?谷歌最终需要改变它对公式的依赖而更多地认可人工输入吗?“社会搜索”——即用户对某个网页的关联性和有用性的评价决定该网页在搜索结果中的显示位置——能够处理更广泛的信息分类系列并且比算法做得更好吗?要认识算法模式在新领域的应用潜力及其局限性,只要近距离观察谷歌如何在新项目中扩大其领域,就可以对这个问题有比较正确的理解。

    认可度较低的试验始于2002年3月,当时谷歌决定在信息分类、集合、给新闻报道划分等级等方面尝试用算法代替人工编辑。当谷歌的管理层准备引入这项服务时,公司内部对于完全依靠软件来决定哪些报道应该放在谷歌新闻网页的显著位置的做法是否明智有过不同意见。谷歌的产品管理和营销高级副总裁乔纳森•罗森伯格(JonathanRosenberg)建议道:“只要分一些编辑去做这项工作,我们的新闻产品在互联网界就会是最好的。”但是拉里•佩奇否决了这项提议,因为“人工方案不具规模”。

    当谷歌新闻网站在2002年9月正式推出时,它引用的新闻来源有4000多个。在新闻页面的底端印有一个心血来潮的启事:“本网页在编制过程中无人受到伤害,甚至无人被利用。”在一个针对谷歌新闻提出问题的页面的顶端,公司自己的提问和回答是——问:“谷歌新闻主页的编辑是谁?有一条新闻的标题非常乱。”答:“计算机算法,没有人工介入。”谷歌骄傲地让编辑、责任编辑和执行编辑的位置空着¬——决定某条新闻上头条的不是某个人,也没有政治观点或意识形态的因素掺杂在内。谷歌说,和搜索网页的运算规则一样,编辑新闻报道的运算规则“也主要依靠网站出版商的集体判断来确认哪些网站提供了最有价值又最有意义的信息”。谷歌知道,它的算法还存在着一些缺陷,所以只要读者发现了“奇怪的结果”,一个电子邮件就可以让谷歌的工程师知道,不必用人工调整结果,而只需帮助“微调一下算法”即可。

    《华盛顿邮报》媒介评论家霍华德•库尔茨(HowardKurtz)用带有讽刺意味的口吻对谷歌的逻辑依据进行了解读:“谁会需要记者呢?当你可以利用易于被滥用的计算机制作一个称心的新闻网站的时候,谁还会把钱花在爱发牢骚的、以自我为中心的、迷恋401(K)条款的人身上呢?”严格说来,库尔茨的批评在当时是放错了地方——在网络威胁面前立刻感到饭碗不保的不是记者,而是编辑。但短短几年之后,连整个报纸行业也陷入了可怕的财政困境,“谷歌新闻”应对记者职业的消失负间接的责任。通过将用户直接指向具体的在线新闻文章,“谷歌新闻”及其他同样入侵新闻领域的网站扮演了将报纸订户诱拐到电脑屏幕上读新闻的角色,而且让读者将时间主要花在浏览谷歌新闻网站而不是浏览报纸网络版主页。随着印刷版订户的消失,传统上为新闻采访提供资金的广告商也就消失了。报纸网站上在线广告的增加无法完全弥补其印刷版的亏空,报纸行业的临时解雇现象越来越严重。

    算法的确需要微调。有一次,一个公司报纸的发行量不知何故登上了商业新闻网页中新闻特写的顶部。还有一次,谷歌冷酷无情的算法在2003年2月1日犯了一个重大的错误,导致了严重的负面后果:那一天,航天飞机哥伦比亚号在返回途中解体,导致全部7名宇航员死亡。由于没有估准这个事件的重要性,算法当天允许这条消息从新闻网站的主页上一度消失。

    其他的反常现象也不时出现。2005年,谷歌对它的公式做了调整并申请将其加入到算法专利中,算法可以考虑更多的因素,如新闻机构编制的特写的平均长度,新闻部门的人员数量,报纸自办网站的访问量,接入这个网站的国家的数量等。结果得到了改善,反常现象(几乎)消失了。(新泽西州的一名15岁高中生在2006年写了一则假新闻,称他已经成为谷歌最年轻的雇员,“谷歌新闻”竟然不辨真伪,也收入了这则新闻。)

    在组织新闻的竞争中,谷歌的算法和雅虎的人工新闻编辑进行了对决,然而,谷歌并没有取得胜利。它的算法虽然有所改进,但并不意味着已经赶上了雅虎新闻网站的质量。说“谷歌新闻”是一个劣等网站,并不是因为它偶然有一天表现不佳,算法被指犯下了人工编辑决不会犯的错误;“谷歌新闻”的低劣表现在即使是它最好的日子也从未有过“雅虎新闻”指导新闻选择的精益求精的态度。访客数量上的差异也反映出两家的不同由来已久:在开办4年后,“谷歌新闻”的访问量只及雅虎新闻网站的30%,后者仍是Web中最有人缘的新闻网站。在这种情况下,当算法遭遇人类时,人类获胜。

    新闻的性质决定了新闻并不能显示出算法随着数据的增长而自动日益复杂化的真正威力。在网站中,维护人员赋予算法的是一种额外的高明之处:一旦它们在自己的网页中加入在其他网站上发现的新闻网页的链接,就可以对Web网页进行检查。谷歌“蜘蛛”搜集的页面越多,算法所集中的链接就越多,它赖以做出的判断就越具权威性。但具体到新闻,由于算法只能对新闻的组织进行判断,却不能将成千上万的人阅读新闻时所做的判断搜集起来,因而,算法对新闻而言,其智慧就赶不上它在搜集新闻报道时所达到的那种引人注目的高度。而新闻报道又有时效性,先出者不断被后出者所替代,这就使得算法缺乏考察用户点击率的数据基础,所以它就不能持续地保持敏锐的判断力。

    “谷歌新闻”不能作为算法的成果展示柜,但这个项目的中等成绩并没有使谷歌对公司的创立使命产生怀疑。“算法”在Web网页搜索方面是如此之强,即使它在执行其他任务时相对失败,也都被谷歌之外的绝大多数观察家们忽略了。谷歌就是这样享受着各种实验所带来的乐趣,而当一些实验结果不如人意时,也不必因担心形象受损而烦恼。

    在将“算法”推向新领域的另一个项目中,结果比预想的要好,这就是计算机在历史上所处理的最困难、最难协调的问题——语言翻译。为了进入这个领域,谷歌在2003年初组建了一个课题小组,让他们在所谓自动翻译或机器翻译的领域奋力开拓。他们的努力结出了丰硕的果实。他们开发的“算法”能够完成——至少有时能够完成——符合语句习惯的流利的翻译,这一点令人惊叹不已。同时,它还有效地利用了较为令人失望的谷歌新闻项目中所搜集的新闻报道资料。

    机器翻译是计算机先驱们在20世纪中叶首先设想出来的计算机应用领域之一。1953年,哈佛大学计算机实验室的霍华德•艾肯(HowardAiken)用响亮的声音宣布,他希望不久就可以开始将俄语逐字地译为英语。他以为,将意义从一种语言精确地转为另一种语言会是很容易的,随着计算机功能的增强,文字上的修饰也会成为一个不难解决的问题。翌年,IBM的科学家和乔治敦大学的语言学家推出了一台能够进行俄英翻译的机器,并且开启了机器翻译领域中的一个传统:对翻译质量的过高期待和转换结果控制的力不从心。在一个只有250个单词词汇表的基础上编写的软件,竟然负载了处理政治、法律、数学、化学、冶金学、交通和军事等专业内容的期待。但是,新闻界却被要求相信这一切。

    6年之后,IBM公司的MarkI型计算机正在进行原文翻译,这次又是从俄文到英文——反映出冷战中期语言翻译上的当务之急——据说达到了每分钟800个单词的速度,当时的人工翻译速度是一个工作日只有2600个单词。可译出来的文章却不是只需稍加修饰那么简单——一个关于U-2飞行员弗朗西斯•加利•鲍威尔(FrancisGaryPowers)的段落的开头是这样的:“它30年/费。据它/它的所称,它是较老的空军中尉美国。”但是人们仍然对此持乐观态度,而作为“字对字”比对之补充的“句法规则”似乎被完全忽略了。国家标准局成立了一个“机器翻译小组”来研究如何增加对语义和句子结构的理解,以解决所谓“水下山羊”问题(指的是由机器翻译的俄语工程学论文经常将hydraulicram[液压油缸]译成了“水下山羊”这一现象)。

    应用语言学研究改进了机器翻译的质量。1968年,专业翻译公司Systran在巴黎创办,它将成为为其他公司提供机器翻译服务的先行者。这家公司由语言学家来解释复杂的语法。一门语言,又一门语言,公司不断增加能够实现双语互译的语言的数量,到2005年,已经实现了40对语言之间的互译。当谷歌打算提供用原文以外的其他语言显示的Web页面供用户浏览时,它便求助于Systran公司为其后台的机器翻译提供技术支持,使谷歌的网页可以根据用户的具体要求进行动态显示。当然,各语种之间的翻译水平并不平衡,在最好的情况下,它也只能转达源文件中的梗概。符合语言习惯的段落仍旧难以表述。但这个缺陷似乎是机器翻译与生俱来的:任何算法也不能代替人工翻译。

    但是,Systran建立在规则基础上的技术只是机器翻译的一种形式。另外一种不同的方法——IBM的研究者在20世纪90年代展示出其前景的——被称为统计机器翻译。它代表了告别以规则为基础的方法而转向人工智能研究的大趋势。它不是建立在人工拟定的语言规则基础上,而是建立在由软件自己开发的翻译模式基础上。由于软件接收了数以百万计的由人工完成的译文组成的文件——例如在加拿大议会用英语发表的演讲及其官方法语译文。这个软件注重寻找句型、对比词汇和短语,从A语言的第一段第一句以及它在B语言的相对应的句子开始。仅仅对照一组文件,推导出来的结论当然少得可怜。而一旦对照的文件达到数百万组,那么一种语言中的句型和短语在目标语言中具体用什么方式表达,就可以根据统计材料推导出来。统计机器翻译是谷歌研究人员在2003年初才开始研究的方法。

    谷歌采用联合国的多语种文件作为训练材料,向它的算法输入了2000亿个单词并让这个软件算出了每一对语言之间配对的句型。这个结果是显而易见的。谷歌的说英语的程序员虽然不具备阅读汉语或阿拉伯语的能力,也根本不懂汉语或阿拉伯语的语音、语义或语法,但他们却设计出了一个能够自学的算法,它可以提供准确的、有时甚至是相当流利的译文。在2005年的一次会议上,谷歌第一次公开地讨论了它所进行的工作。为了证明统计机器翻译能够处理足够大量的翻译文本资料,特意用阿拉伯语报纸上的一段新闻提要的两种英文译本进行了演示。第一种译文由以规则为基础的Systran软件提供,它将那段阿拉伯文显示为“阿尔卑斯山白色的新出场的磁带注册为咖啡批准拉登”;第二个来自谷歌刚刚问世的程序,它显示了一段完全不同的译文:“白宫证实有新的本•拉登磁带存在。”

    谷歌的翻译算法在记者招待会这类有人监控的场合表现似乎令人印象深刻,证明它在独立的测试中也站得住脚。的确,它的表现非常之好。2005年,谷歌第一次参加由国家标准与技术研究所主办的机器翻译软件年度竞赛,这个赛事吸引了来自大学、公司、政府实验室和商业软件制造业的研究人员。谷歌在有11个入选者参加的阿(阿拉伯语)译英比赛中名列第一(IBM名列第三,Systran名列第七),在有16个参赛者的汉译英比赛中也名列第一(IBM名列第六,Systran名列第十二)。这对一个新手来说是个不错的成绩。

    在这次比赛中,基本的测量手段是将机器制作的译文同被视为“黄金标准”的人类翻译家提供的参考译文进行比照。从0到1的得分情况表明机器翻译与人工翻译的吻合度——1表示完全吻合。分数是一个最直接的计算问题,它由评估软件自动完成,减少了人工评判的主观性。同样的软件也曾被用在比赛之外。研究人员可以对算法进行微调,将测试文件输进去,马上就可以看到,在翻译质量可测量的改进中,结果是否发生了变化。

    谷歌不仅利用双语平行文本建立了一种翻译模式,它还用软件创造了单语种的“语言模式”,对由翻译模式制作的任何译文进行润色,使之更加流畅。“算法”在大量具备专业水准的文献中寻找句型,进而教会自己识别哪些是地道的英语表达方式。恰巧,谷歌已经在它的服务器中使用了一个这种类型的文集——由“谷歌新闻”所检索的报道。即使“谷歌新闻”的用户总是被导向新闻机构的Web网页,但谷歌仍将贮存的新闻副本馈送给它自己的算法。人们偶然发现,这个经专业手法润色的文本宝库——截至2007年4月已经收集了5亿字——是个使用起来极其方便的训练用文集,绝对适合于教会机器流畅地使用英语。

    如果你所从事的是将全世界的信息组织起来的职业,那么,在某个领域学到的东西总会在另一个领域里得到实际应用。如果说谷歌的统计机器翻译项目得益于谷歌旗下其他部门的工作,那么它也以各种方式回报了这些部门的恩惠。研发单一语言的统计技术模型转过来为研发任一语言的发音监测软件提供了便利(这个软件的监测范围包括了哪怕是新近出现的名人姓名的发音),它无需经过人工编辑之手,也无需借助词典,只要给“算法”输入足够分量的公开发表的文章,就绝对可以让它掌握正确的发音。能使它做到这一步的技术保障就是对出现频率的统计分析。

    谷歌使用的搜索程序也得到了由研发团队使用的计算部件的极大帮助。由该领域的许多学术研究者使用的一套数据(由语言数据联盟LinguisticDataConsortium提供)有52亿个单词。但谷歌可以处理大得多的集合,如仅仅从它所索引的网页中抽取出来的单词就达到了2×1012个。“我们没有更好的算法,”谷歌的彼得•诺维奇说,“我们只是有更多的数据。”

    为了给单句找到最好的译文,谷歌的算法搜索了上百万可能的短语组合。硬盘不适合作为保留数据随时备查的中介,只有随机存取内存(RAM,randomaccessmemory)才最合适。随机存取内存存量巨大是非常必要的——谷歌供人随时查考的正是这巨大的存量。统计机器翻译很适合于分布在数千台机器中进行,而谷歌的数据中心(虽然最初是为了其他目的而建)的设备就能承受这种计算上的负荷。

    有了可以处理任何规模的计算问题的计算基础设施,谷歌的研究者便拥有了一个可以傲视群雄的巨大优势。他们的程序运行之快,在2005年国家标准和技术研究所举行的机器翻译竞赛中已经得到了体现;在2006年的竞赛中,他们又占据了领先地位。在参加阿-英翻译的22个竞赛者中,谷歌的整体成绩排名第一;在参加汉-英翻译的24个竞赛者中,谷歌名列第二(被南加州大学著名的信息科学研究所险胜)。

    Systran的主席兼CEO季米特里斯•沙巴塔卡基斯(DimitrisSabatakakis)不能理解为何统计机器翻译的结果总是超过他的规则基础技术。2005年竞赛结束后,他替以规则为基础的方法作了些辩护,并建议没有雇用以汉语为母语的人员的谷歌不要再玩弄类似花招。就Systran而言,“如果我们没有中国人,我们的系统就可能出现严重的错误”。他不理解,如果没有母语为汉语的人对译文反复检验,谷歌为何能在2005年把Systran彻底打败。但他没有立即报名再次参加比赛:Systran从2006年的竞赛中消失了。2007年没有举行比赛。所以尚不清楚Systran是否已经决定永远不再与统计机器翻译直接较量。

    谷歌没有声称拥有最复杂的翻译算法,但它的确拥有一些其他的机器翻译团队所不具备的东西:体量最大的训练数据。2007年,负责机器翻译研究的工程师弗朗茨•奥奇(FranzOch)说:“在自然程序领域有一种著名的说法,‘更多的数据就是更好的数据’。”为什么谷歌一直使用那些从Web网页中搜集的2×1012词汇量的文本?原因就在于:写作质量无从担保,但绝对海量的额外数据对翻译算法质量的改进却是实实在在的。

    谷歌在机器翻译方面的成就还不能被说成是获得了足以养活自己的收益。谷歌在服务领域的拓展中所遇到的最复杂的问题就是,许多拓展项目对公司毫无贡献,至少没有直接贡献。尽管如此,机器翻译仍是一个恰当的项目。谷歌并没有急于将它的机器翻译能力投入商业性应用。它的机器翻译团队还只是谷歌实验室的一部分,而且其主要精力都放在研究上。在实验的基础上,团队在2007年为使用谷歌搜索引擎的用户提供了三种语言——阿拉伯语、汉语、俄语——的英语翻译服务。

    随着谷歌的翻译工作不断取得进展,它的翻译结果也远不止于经过了润色和符合语言习惯。当《华尔街日报》的双语(英语、阿拉伯语)记者萨马德•阿里(SarmadAli)于2007年12月在试用谷歌、Systran和另外两个竞争者的阿-英在线翻译服务时,他为这几家公司的翻译结果中的语法错误和语义错误列了一张表,按照错误的程度排列顺序,从“值得斟酌”到“荒唐可笑”都有。

    那一年的早些时候,谷歌的奥奇在一个公开的场合谈及机器翻译的结果时,谈到了谷歌最好的一面:这个组织致力于不断开拓信息传播的广度,看不出它对自己的商业利益的关心。他说,如果听众中有人打算亲手建设一个机器翻译的算法,谷歌很愿意提供帮助。谷歌同非营利性的宾夕法尼亚大学的语言数据联盟(LinguisticDataConsortium)合作,一开始就以运费的名义提供了一套包含必要的基础训练数据的DVD,这套数据列举了各种词语组合——其长度(技术术语表示为precountedn-grams)从1个词到5个词不等——的使用频率,它们的基础就是谷歌的爬行器从Web中搜集来的上万亿个词汇量的英语文献。

    统计机器翻译依靠平行文本向“算法”输入信息——奥奇说,至少要输入1亿字左右的平行数据,才能建立一个能够产生理性可以接受的结果的翻译系统。对于平行文本的这种依赖,限制了适用于机器翻译的语言配对的数量。目前,还没有足够的双语文本可赖以创建一个(比如说)直接从希腊语翻译为泰语的系统,所以在这样一个过渡时期,桥梁性语言——如英语——就必不可少。机器翻译最终能否将任何语言的文本直接翻译成任一其他语言?采用基于理解语言学和建立中介性源语言等方法有无必要?这些问题都还没有明确的答案。迄今为止,人们看到的是,似乎只要有了足够大量的数据,不可能的任务也会变为可能。

    谷歌程序的速度令人震惊,人们也有理由对它持乐观的期待。它的统计机器翻译所提供的服务从2007年春天的3种源语言增加到了13种,然后是23种,这都是在不到一年的时间内取得的。公司不仅能提供从非英语到英语的翻译,而且能在这23种源语言中的任两个语言之间实现互译。截至2008年5月,这些语言是:阿拉伯文、保加利亚文、中文(包括简体中文和繁体中文)、克罗地亚文、捷克文、丹麦文、英文、芬兰文、法文、德文、希腊文、印地文、意大利文、韩文、日文、挪威文、波兰文、罗马尼亚文、俄文、西班牙文、瑞典文和葡萄牙文。

    机器翻译项目证明了谷歌是如何被“更多的数据是更好的数据”这一信条所驱动的。在信息产业,完全性——无论是就一个信息目录的完整性而言还是就包括的目录的穷尽性而言,都是至为关键的因素,因为数据达到前所未有地多,只会使算法的智能化水平变得前所未有地高,这反过来又巩固了谷歌的领先地位,把对手更远地甩在身后。

    谷歌以免费电话为基础的信息服务,1-800-GOOG-411就是一个很好的例证。这项服务运用声音识别软件来提供本地企业的电话号码咨询。这项服务不收费,也不夹带广告。谷歌的玛丽莎•梅耶尔在2007年10月的一次谈话中承认,她也怀疑谷歌是不是会变成一个公益性机构。但她并不担心,因为谷歌是利用这项服务搜集音素,而不是赚取利润。她说:“我们必须建成一个可用于各种不同事物(包括视频搜索在内)的更大的从话语到文本的模型。”谷歌的话语识别专家曾对她说:“如果你们要我们去建立一个真正强有力的话语模型,我们就需要很多的音素……人们怎样交谈、怎样说事儿。有了这些,我们最终就可以训练软件来掌握并应用它们。”还是那句话:“更多的数据是更好的数据。”

    谷歌知道,算法的结果不是没有瑕疵,但公司将算法的缺陷视为数据量不够大而导致的局限,是其内部工作有待完善而出现的微调,绝不会将它当作自动化程序固有的问题。公司已经决定向算法输入更多的信息,这些信息必须以前所未有的力量进一步搜索才能得到。它已经可以充满自信地宣布,已经拥有了所能找到的一切图书,拥有了它的用户可能点击的一切视频,拥有了能够覆盖天空和大地的各类地图。

    在这些额外添加到谷歌信息库的东西中,有一些对它可能显得无关紧要,因为它的核心兴趣是网络搜索及相关广告;有些可能会被证明属于浪费性的实验,有些可能会被证明为广受欢迎却最终无法得到回报的服务。它们或许会——或许不会——反过来对谷歌的前途产生重大影响。每一项都有自己的故事,但主题却是共同的:谷歌对新的信息种类的热切追求没有减退也没有动摇;即使在它的公众形象被它的行动所引起的争论所损害的时候,也一如既往。

    当每一个展开的故事都受到仔细检查时,谷歌这块巨石的光滑表面就会消退,随时调整决定的更加复杂的面目就会浮现。私人公司和小型团队在起步阶段最为重视的企业文化就可以从这些故事中解读出来。但这也有一个未经调查的信任度,即谷歌的利益与其客户的利益是完全一致的。在谷歌看来,每个新的服务项目都是人类的一个进步。有一天,当实验过程全部结束,它们便可以被视为谷歌“组织起全世界的信息”这一使命的精彩实现,被视为有远见的幻想;但也可能完全相反,同样的故事在某一天被读作浪费资源的纪录,被读作刚愎自用的铁证。

来源:《星球Google:我们的生活将怎样被一家公司彻底改变》