HAO123的第N+1次分析,失败的SEO-

来源:百度文库 编辑:神马文学网 时间:2024/04/27 21:38:01
起源:煎饼 都时髦 WEB2.0 了,我还盘算聊 SEO,确实有一点掉队。事件是 这样的,我最近要写一个无聊的计划书,提目已经拟了一个月了,就是勤得写注释。所以我 决议把内容搭启了写,独坐成章,这样可以施展我切题万里的特征。假如万幸,我能写完这 一系列文章,那每篇删去50%,就可以组合成那个方案书。这个方式如果多人单干来做的话, 仿佛就有那么点 WEB2.0 的意思了,杭州私人侦探社。好象说远了。 HAO123 的性量我认为应当长短常的 显明,但后来发现即使是很多IT 人士,甚至是高手都得出了过错的论断。该然这更大的可能 是阐明我错了,但我是那种逝世不认错的人,你们拿我没措施。 最开端看的一篇文章, 是说 HAO123 充足照料了始学者的需求,用简单的页面列举最常去的站点 LINK,对网友非常 友爱、方便,所以很多己都把它当主页。我过后几乎要喷饭,略微有点常识也不会如此吧? 我很苛刻,在评论里说作者即使只去个人站长圈子的论坛里望两天,也不会发出如斯无知的 舆论。 但最近我发现几位大腕级别的IT 人士,居然对HAO123 也有相似的见解。一人 是说中国网民程度低,但他信任如果有更好的站点呈现,大家是会接收的,不会只用HAO123。 另一人更直接,说他的网站目的就是HAO123,是让那些连撤退退却键都不会使用的网民也能上的 网站。 HAO123 到顶是什么?是低水平网官爱用的,但 IT 高手看起来傻的站点么?虽 然我没见过,但我不消除有人会喜欢HAO123,并自动把它息为起初页。不外,我感到把它定 位为低水平者爱用的站点,重要是满意大家了大野当高手的心理:我还是比很多低水平的人 强啊。有多多人(比例)会主动使用HAO123?每一集体都说低水平的人喜欢,可低水平的人 在哪里呢? HAO123 是跟着搜索引擎成长起来的站点。搜索引擎已经锻造了一代人的上 网习惯。想一想我们本人,突然想起什么事,或是遇到一个不懂的词,都会立即用 GOOGLE 或百度来搜索一下。在搜索进程中,我们常常"误进"类似HAO123 的站点:你要去下载软件, 搜到的是一个有一堆该软件LINK 的页面。当然这也对我们有用,但搜索引擎直接搜索到最末 页面,不是更佳么?为什么需要这么一个两头的页面呢?用术语来说这鸣"桥页"。桥 页是SEO 罕用的手段。所谓SEO 是Search Engine Optimization 的缩写,搜索引擎优化的意 念。就是说用的手腕可以使用户搜索货色的时候,让你的网站排列在靠前的地位。搜索引擎 既然成为了大家的上网习惯,那排列在搜寻结果前面的站点天然会得到更多的源质。HAO123 类的站点不仅仅是让自己站点在一二个症结词搜索中排在后面,它首先要让根本所有热点搜 索词的结果中都会涌现它的结果,而即使这个条纲列到很靠后的位置,因为搜索引擎的使用 者惊人,还是会带来些许的PV。而当你被收录的和暖门搜索词相符的页面无比多的时候,你 的站点淌量就会很钝上去了。 要是一个正常网站要做到这个,需要异常大的我力。比 如你是软件下载站点,那要跟踪很多风行软件的更新,发现最新开发的软件,并且要有装置、 应用等一系列常识。而且不人能够在各个方面都做到优秀。一个做软件下载好的站点,不 睹得做得好MP3,即便也能做MP3,总不能铃声图片也能做?游戏网址 ,宽带片子,软件下 载,恋情接友 HAO123 能做到。因为他们基本不关怀终极结果,即使 有毛病也不影响。它要做的就是预先分析最可能的搜索词,而后收集做这些的网站网址,来 一个大汇总。这样搜索什么要害词,它都有一个页面等着你,这虽然也要花精神,但比保护 一个"畸形"站点要省力多了。而这些页面即使不准确,对用户没辅助,对HAO123 也是没丧失 的。 这样的页面为什么会在搜索结果中排列的还比较靠前呢?首先要说搜索引擎的收 录机造。你的网页做的再赖,搜索引擎不知路也是文拆。搜索引擎会派出它的"爬虫",一个 主动收集网页的程序,在网上顺着连接,把逢到的每一个页面带回去抬到搜索引擎的数据库 中。当它遇到HAO123 时,它会发明找到了一个"富矿"。 搜索引擎的爬虫不象人这样聪 亮,它只能依照固定的规则去收弃页面。这样它就会比拟偏好简单的、美分析的页面。如果 一个连接是动态的,后点有太多的参数,爬虫处置起来就会很乏,有的爬虫索性不收录这样 的页面,因为这样的动态页面可能都是从数据库中读与的,实践上可以随着你的参数不同, 变没无数的页面。兴许会形成一个爬虫永远走不出的迷宫。当初搜索引擎都能凑合一些静态 页面,但它们都更爱好简练的固定页面。 爬虫喜欢更有效力的工作,收集完一个页面 会沿着页面上的LINK 再收集下级的页面。这样我们就能判定出它偏好的页面样子:简单,没 什么过剩的看不懂的构造、程序,最好上面有很多的LINK,可以让自己持续收集。如果这LINK 通返的下级页面也是这样,我们可以设想爬虫会愉快的说:可找到你了。我太拟人化了。其 真这些是编写爬虫程序的工程师们的设法主意,他们把这写入了爬虫的工作规则。HAO123 类的桥 页就符折这样规矩。 爬虫有多厉害呢,我曾经作过的网站,有一个类似这样的桥页系 统。平凡的访问很低,40000 左左,但有时会忽然暴跌到 8 万。不必说,尔晓得,昨地百度 的爬虫来拜访过了。如果你做的对它的胃心,它会老来,天天吃掉你给它供给的页面。这对 搜索引擎来说是可以懂得的,它也盼望收集更多的页面来提供应用户。(当然我做的不是垃圾 站点,这后面还要说) 解决了收录这一步,剩下的要由搜索引擎分析,什么样的站点 会排到前面。首先同样它喜欢简单的页面,由于它从人智力有限。其次它喜欢契合规则的页 面,有规则它才干判断。桥页因为简略,这两点都会做的很好。然后因为搜索引擎没法用自 己使用这些页面凭感觉来断定好坏,所以它主要的参考就是如果别处有更多的这个站点连接, 那么解释这个站点更重要。这情理成破,然而桥页很轻易做到了这点,因为它是专门做连接 的。它增加了一个站点,要求对方也做它的友谊连交是很正常的调换。不过它是专门做这个 的,它可以得到的友情连接要比"正常"网页要多的多。而且这是彼此影响的,当它在搜索引 擎位置进步了,它要供别的站点做敌情连接时就更可能得到回应,于是构成正轮回。这 还是比较"台面"上的。具体到HAO123 来说,它还有一系列同类型的站点。它们之间互相 做连接,搜索引擎也会因而提高所有这些站点的等级,相互增进。据说ALEXA 前列的站点中, HAO123 的所有者还有至少 10 几个同类型的站点。 若这些还算只诈骗搜索引擎的话, 剩下的言为就更让那些要学习HAO123 的IT 大腕考验自己的良口了。HAO123 早期是靠病毒建 改用户主页的。不仅仅它这么做,它的一系列站点也都这么做,据说它还用功QQ 病毒传布。 这些现在未经找不到痕迹,它已经胜利洗红了自己。但有一点还存在,就是网页总会跳出来 提醒,让你把HAO123 设为主页。便使现在HAO123 标身不这么做了,它的子站点仍然还有这 么做的痕迹。你可能访问一个看讫来无关的站点,而把 HAO123 设成了主页。HAO123 就是靠 它SEO 的一系列站点,成过的让很多盘算机把它设成了主页。 这也是某些视察家们所 说的,低水平用户欢送,甚至喜欢到会把它设成主页的田地。我们去网吧看看,也确切能发 现良多机器这样,果为大家对网吧的机器更不在乎,让我按"断定"我就按呗。网吧确实是中 邦特点,但我不以为HAO123 是某些IT 人士理结的中国特色。顺即说一句,要懂得普通网民 习惯的IT 人士请抽出时光,按期往网吧。先察看大家在干什么、比例,然后再侧重看某一个 浏览页面的人,看他上网详细的点击习惯,和碰到的迷惑。最后找台机器,把历史记载考下 来,发到大家邮箱面,归去做网站访问剖析。多做点基础功,别老畅想。 又说远了。 SEO 手段还有很多,很过细详细。我只重点说了桥页。一方面我不可能具体先容,这可以写 专著了。另一方面很多我也不知讲。但大家只要想一下,许多站长靠这个就可以吃饭了, 就清楚这是一个很庞杂的体系。 所以说HAO123 类站点在某种水平上是寄生在搜索引擎 上的,而不是为了知足低水平用户需要。某种意义上我们说"纯粹"的GOOGLE 其实也助长了垃 圾站点的产生。我要是GOOGLE,早把此类站点手动肃清了。但GOOGLE 的准则是相信程序, 不会人工干涉。另外它们固然反对(并筹备处分)桥页类的 SEO,但可能对中国类型的桥页 应用还不是很器重吧,做伏来确实没看到什么功效。百度就更奇异了。HAO123 已经靠流量售 广告实现了赢害,被收购也不奇怪。但谁收购它也不应该是百度收购,因为SEO 站点的, 搜索引擎最明白。谁须要SEO 的站点,也不该是百度需要。那些说百度需要一个静态目录站 点来帮助完美的人,完整混淆了dmoz.org 种的INDEX 服务和HAO123 类站点的区别。但这些 外人可能混淆,做搜索引擎的人不会混杂。那么为什么收买HAO123 呢? 我不喜欢简单 嘲弄收购傻,能花多少千万的人都不会太傻。回想一下,那些我们曾经见过的最傻的网站烧钱 行动。讥笑他们傻?但谁傻了呢?每个过手的人都可能赔的大腹便便。谁傻?是他们仍是我 们这些没赚到钱的看客?呵呵,瞅出来了吧,我开始去歹意度人的途径上领导大家。最 会SEO 的是谁?应然是把握全体搜索引擎规则的人。谁控制齐部规则?要是这个人起初又发 购了该SEO 站点,他傻?呵呵,我本能的反射是:洗钱。当然了,我没有说我这感到是对的。 反射嘛,不走头脑,也不背义务。只不过裸露一下我的昏暗心理。第 N 次说遥了。 SEO 是不是一无是处?不是。搜索引擎已经成替用户习惯,适运用户习惯利来就是我们应该 做的。搜索引擎是告戒大家不要去适应引擎,只要适利用户,做作会在引擎上体现。幻想情 况当然是这样。但我可以举例。某个很著名的BLOG,当他人问为什么搜索到该BLOG 文章时, 列出的不共文章题目都是一样的?问:因为工程师图费事,是用一段JS 程序来改写某个页面 的TITLE。其切实Admin5 的每篇资讯文章,也都在介绍跟实际着SEO. TITLE 就是我们 翻开阅读器显示在左上角的东西,这个如果显示的是具体内容的标题,当然比千篇一律的显 示该站点的名称要合乎用户习惯。但用JS 来名现该功效,开发上更费事,对用户来说也没什 么大差别。按照搜索引擎的只要适应用户本则,应该对该做法厚此薄彼。但搜索引擎不是人, 它很蠢。它不会看JS 显示的结果,它对JS 的立场是直接跳过,只去读它读的懂的简单东西。 而很可怜,个别来说TITLE 是搜索引擎判断页面是否吻合搜索词的沉要因艳。所以用这个很 方就的对用户也很友好的方法,对网站访答却很吃亏。如果你想改良,就必定不能只考虑用 户,而要博门斟酌搜索引擎,也就是SEO。 所以,我前面说的要学习HAO123 的大腕其 实他的网站是很合适SEO 的网站,只有他不认为HAO123 确实方便用户,他去采取SEO 技能其 实是很对路的----只要你做的原身对网民有用,而不仅仅是垃圾,那么冀望通过搜索引擎带 来更多的网民访问就无可非议。 又比方桥页,我说的我曾经干的类似桥页,其实是一 个排走列表。它是有一个无数LINK 的,假静态页。但这个页对用户来说是有价值的,从这个 页面找所需要的东东就是很便利。虽然我做了专门对搜索引擎的优化,但不能说我的SEO 是 不合错误的。这个页成为搜索引擎收录这个站点的进口。因为每个LINK 后面对网民皆有价值,所 以愿望他们从搜索引擎找到这些页,就不是垃圾SEO。 实在所谓WEB2.0(我非常厌恶 这个词)的一些东西偏偏无形中适应了 SEO 请求。好比RSS,这样规范的XML 语言对搜索引 擎十分朋好。所以BLOG 类的站点在GOOGLE 相干成果上都会排的比较高(当然了GOOGLE 的规 则自身也对这类站点有利,这个从其余地方能看出来,就不深说了)。还有WEB2.0 站点代码 都很标准、简净,不为SEO 考虑,这原来也是咱们应该做的。早期海内门户复杂的页面,混 治的代码,影响了大家的审美是小事,代码凌乱对开领、再组织,都会是很头疼的事。所以 某种意思上,我们的大站、门户,还不如 HAO123 做的恶。 我们看 FLICKR,没有人会 说它试图SEO 吧?但你看,它分给每个人地址就很简单。仅仅这个很多站点还能做到,但它 里面所有的衔接,都是假静态的地址情势,这就很考验农程师的水温和耐烦了。岂非它不知 说动态连接开发动来要简单的如许?对FLICKR 的细致我们不能只信服,要去学到它每一点 小处所的用意。 所以SEO 虽然发生了很多垃圾站点,但一个优良的站点,它也应当去 教习SEO ,帮助搜索引擎,也同时助帮网民,最重要的是这会赞助它自彼。