汇成软件 Create the world!!!

遵循W3C标准规范—灵丹妙药?

    过去几年里,越来越多的搜索引擎优化师宣扬---在任何有效的网站推广中,遵循W3C的标准规范都是至关重要一个环节。那么,加入这个组织真的是SEO工作的一剂良药吗,真如宣传者们说的那么有效吗?     有许多人还不熟悉W3C这个词,它是全球资讯网组织的缩写形式;W3C旗下的网站是遵循全球资讯网组织颁布的编码规范的。W3C全球资讯网组织有400多个成员,其中包括,各个主要的搜索引擎和像AT&T、惠普、东芝等全球性的大公司。W3C是由因特网的创始人蒂莫西·伯纳斯-李导师于1994年带头创建的,它致力于提供一系列固定的标准,让网络在单一的协调的轨道中发展。     自从那时起,W3C让网络增加了一个残酷的事实,行内人士都知道由联合会制订的这一标准,但要把它推广到所有领域,做到家喻户晓,要花费很多时间。事实上,仅仅是在过去的2至3年中,W3C标准才渐渐被众人所了解,成为网页设计和SEO界一个主要的热门话题。     从我个人角度来说,长期以来我一直是这个W3C标准的支持者,我深深感受到它在SEO中的重要性被一些SEO工作者给夸大了;他们鼓吹,遵从W3C的编码规范可以解决网站在搜索引擎中不友好的问题。     如今大家大力赞扬的标准规范真的能“包治百病”吗? 让我们简要看一下SEO工作者和网站设计者们经常讨论的问题吧,也许能从中找到答案: [b]Firefox[/b][b]、[/b][b]Opera[/b][b]和[/b][b]Lynx[/b][b]等浏览器不能显示网页。[/b]     浏览器的兼容性是标准规范常引用的理由,Firefox浏览器经常会遇到这种问题。根据我个人的经验,Firefox浏览器不会显示含有破碎链接的网站,即使这个网站有充足的理由。实际上,这个浏览器的主要问题似乎更多的在于,有时候它不能正确地辨别层次(一段在 DIV 标签中的 HTML)在显示器中确切的位置(DIV标签—它经常造成文本重叠),即使它能抓取到正确的位置,也处理不了破碎的链接。    Lynx浏览器如何呢?极其有趣的是,这个浏览器比火狐浏览器还要脆弱,它是纯文本浏览器,遇到的大多数问题似乎都源于不当的语义内容(段落间结构不紧密),而不是程序代码的原因。 [b]1.搜索引擎难以索引你的网站。[/b]     一些SEO工作者声称,搜索引擎蜘蛛不会索引不符合W3C标准的网页。从我个人经验来看,这种言论也有些道理。造成搜索引擎蜘蛛“神经失常”的原因不是由于错误的数量,而是因为错误的类型。只要W3C的验证服务能从头至尾解析( * )某个页面的源代码,搜索引擎就能索引这个页面,并给它归类。就整体而言,网页的代码错误尤其会导致搜索引擎不能解析读取这个页面,索引问题才会出现;非关键性的错误不会引起这个结果。     解析网站就是为了提取所需信息处理文件的过程。语言学解析能识别词语和短语,甚至还能识别文字内容中的讲话模式。 [b]2.互联网的残障用户无法使用你的网站。[/b]     这种情况是不可避免的,听力和视力有问题的用户为数极少,大部分因特网用户还是会使用网站的。但是,事实上,Lynx和JAWS等浏览器和搜索引擎蜘蛛查看网页编码的方式大致相同。从这个角度看,我们又回到了遵守W3C规范到底有没有错及错误的程度这个问题上了。浏览器也好,搜索引擎蜘蛛也好,或是其他什么工具,只要它能从网页代码处提取文本内容,用户都能可以得到另其满意的结果。     有趣的是,同行的一个设计师,或称为SEO工作者也可以,一直在日本进行一个名为“W3C 验证服务,谁在关心”的实验,想看看它在长期的网站推广中所产生的影响。初步结果表明,世界上最不符合W3C标准的网页与符合标准的网页在并没有多大差别,它们都能被搜索引擎索引和归类。我真的怀疑,某些人为了建立这项实验的长期影响还要做进一步的研究。     在我写这篇文章的同时,在Google中获得较高排名的网页考虑到下面两种情况:“Google担心W3C验证服务”和“Google关心W3C验证服务”—对完全不能被索引的网页来说这不是什么坏事。那么,遵循W3C标准的答案是什么呢?     最后我要说,现阶段忽视W3C全球资讯组织的规范标准可能产生长期的负面影响,因为因特网不断向前发展,将来可能会更加注重对编码友好的做法。话虽如此,我还是要指出,目前遵循W3C标准的价值在网站设计和SEO界都被过度强调了。     目前需要进一步地调查研究不遵循W3C标准的影响。
作者:admin 分类:seo知识 浏览:589 评论:0
留言列表
发表评论
来宾的头像