关于nofollow在SEO之中的运用
关于 rel=”nofollow”
“Nofollow”向网站管理员提供了一种方式,即告诉搜索引擎”不要追踪此网页上的链接”或”不要追踪此特定链接”。
最初,nofollow
属性出现在网页级元标记中,用于指示搜索引擎不要追踪(即抓取)网页上的任何出站链接。例如:
1 |
<meta name="robots" content="nofollow" /> |
在将 nofollow
用于各个链接前,我们需要完成大量的工作(例如,将链接重定向至 robots.txt 中拦截的网址),以阻止漫游器追踪某网页上的各个链接。因此,我们创建了 rel
属性的 nofollow
属性值。这可让网站管理员更精确地进行控制:无需指示搜索引擎和漫游器不要追踪该网页的所有链接,只需轻松地指示漫游器不要抓取某特定链接即可。例如:
1 |
<a href="<a href="http://www.oicto.com/">http://www.oicto.com/</a>" rel="nofollow">oicto</a> |
Google 如何处理已使用 nofollow 的链接?
通常情况下,我们不会追踪这些链接。也就是说,Google 不会传送这些链接中的 PageRank 或定位文字。从本质上说,使用 nofollow
会使我们放弃整个网络中相应的目标链接。不过,如果有未使用 nofollow
的其他网站链接指向这些目标网页,或目标网页的网址是通过站点地图提交给 Google 的,则这些目标网页可能仍会出现在我们的索引中。此外,值得注意的是,其他搜索引擎对 nofollow
的处理方式可能略有不同。
Google 在使用 nofollow 方面的政策是什么?有哪些具体的使用示例?
在下面这些情况中,您不妨考虑使用 nofollow
:
- 不可信赖的内容:如果您不能或不想为自己的网站所链接的网页内容提供担保,例如,不可信赖的用户评论或留言簿条目,您就不应追踪这些链接。这可以阻止垃圾内容发送者定位您的网站,有助于防止您的网站无意中将 PageRank 传送给网络上的”恶邻”。尤其是,如果垃圾评论发送者发现不受信赖的链接在服务中没有被追踪,就可能决定不定位相应的内容管理系统或博客服务。如果您希望认可并奖励可靠的内容提供者,那么,对于始终如一地提供高质量内容的成员或用户所发布的链接,您可以决定是自动还是手动删除其中的
nofollow
属性。 - 付费链接:网站在 Google 搜索结果中的评级在一定程度上取决于对链接到该网站的其他网站的分析。为了防止付费链接影响搜索结果并对用户产生不利影响,我们建议网站站长对此类链接使用
nofollow
。根据搜索引擎指南的要求,将按照与在线和离线客户所希望的、相同的付费关系公布方式,以机器可读取的方式公布付费链接(例如,整页的报纸广告可能采用”广告”标题)。有关 Google 对付费链接的态度的详情。 - 按优先级别进行抓取:搜索引擎漫游器无法作为成员登录或注册您的论坛,因此没有理由邀请 Googlebot 追踪”在此注册”或”登录”链接。对这些链接应用
nofollow
,即可让 Googlebot 抓取您希望在 Google 索引中看到的其他网页。不过,与专注于通过未使用 nofollow 的某些链接区分抓取优先级相比,稳固的信息架构(直观导航、便于用户和搜索引擎使用的网址等)可能是更有效的资源利用方式。
nofollow 在社交网络 API (rel=”nofollow me”) 中是如何发挥作用的?
如果您托管了用户个人资料,且允许用户链接到网络上的其他个人资料,那么,我们建议您使用 rel=”me” 微格式标记这些链接,便于用户在社交网络 API 中使用。例如:
1 |
<a href="http://blog.example.com" rel="me">我的博客</a> |
但是,这些链接是用户生成的,并且有时可能会指向不受信任的网页,因此,我们建议您使用 nofollow 标记这些链接。例如:
1 |
<a href="http://blog.example.com" rel="me nofollow">我的博客</a> |
对于 rel="me nofollow"
,出于搜索目的(不传送 PageRank),Google 会继续将其作为 rel="nofollow"
处理。但是,对于社交网络 API,即使其中包含了 nofollow
,我们仍然将其作为 rel="me"
链接处理。
如果您能够使用识别技术(例如,OpenID 或 OAuth)验证链接的所有权,则也可以选择删除 nofollow
链接。
要阻止系统抓取 rel=”me nofollow” 网址,您可以使用 robots.txt。Googlebot 和社交网络 API 都会优先考虑标准的 robots.txt 排除规则。