中国最大的自助建站提供商——>>意动社区 成功案例 精美模板
关于意动 | 产品全览 | 免费体验 | 服务与支持 | 建站资源与素材 | 访问旧版网站
      首 页   如何制作网站   如何建网站   网站优化   网络营销   常见问题   网站建设客户   智能一点通         VIP套餐    定制网站
使用Robots meta标签

当网站里面存在有重复内容时,可以通过改变网站的结构来完全清除它。但是有时候网站不得不包含重复内容。最常见的情况是当驱动网站的业务规则需要所谓的重复内容时。为了处理好这个问题,可以只从搜索引擎的角度排除它。存在有两种排除页面的方法:

 

一、使用robots meta标签

 

二、robots.txt模式排除

 

使用Robots meta标签

 

首先提出这个,不是因为它是排除内容的唯一最佳方法,而是因为它应用程序而言,实际上没有任何限制。使用robots meta标签,就可以从网站中以页面为基础排除任何基于HTML的内容。并且,当需要从一个现存的、源代码可用的网站中排除重复内容,或者当网站中包含很多复杂的动态URL地址时,它常常是一种较为容易使用的方法。

 

为了用meta来排除页面,只需简单地将以下代码插入到要排除的HTML文档的<head>节:

 

<meta name="robots" content="noindex,nofollow" />

 

这就表明页面不能被索引,并且页面的链接不能被跟随。使用一些简单编辑逻辑,来决定是否在网站的页面中包含这种meta标签,是比较容易的事情。只要对应用程序源代码有修改权限,通常就可以采用这种方法。然而,在某些环境下,robots.txt排除则比较困难,甚至可能根本无法运用。

 

为了排除特定种类的蜘蛛,将“robots”修改为蜘蛛的名子——如googlebot、msnbot或是slurp。为了排除多个蜘蛛,可以使用多个meta标签。例如,为了排除googlebot和msnbot,可以采用如下代码:

 

<meta name="googlebot" content="noindex,nofollow" />

<meta name="msnbot" content="noindex,nofollow" />

 

在理论上,这种方法与接下将要讨论的robots.txt方法相同。唯一的不足是,页面必须首先被提取,才能决定是否索引它。这可能会减慢索引的速度。Dan Thies在《搜索引擎营销人员手册》中提到,“如果网站中对于每个内容唯一的页面提供10个重复页面,蜘蛛仍将终止索引……不能依靠搜索引擎在站点中来处摸索唯一内容。”

 

与使用meta排除方法相关的两个技术限制是:

 

(一)需要对应用程序源代码修改的权限。否则,meta标签排除将不可能实现。因为标签必须被旋转在应用程序生成的WEB页面之中。

 

(二)只能用于HTML文件中,不能用于纯文本、CSS或二进制/图像文件中。

 

 

 


用户名:
密 码:
新手建站全过程视频讲解教程 成功案例
在线客服
如何制作网站

FLASH和AJAX

使用自定义标记语言来生成搜索引擎友好的HTML

搜索引擎友好的HTML

用图像来替换文字

使用sIFR

可检索的图像和图形文本

实现可检索的弹出窗口

搜索引擎友好的JavaScript(二)

搜索引擎友好的HTML和JavaScript

重定向数化的会员URL地址例子#2

重定向数化的会员URL地址

常见重复页面的解决方案(三)

常见重复页面的解决方案(二)

常见重复页面的解决方案(一)

网络空间的优势

免费空间的缺点与分类

如何挑选免费空间

空间是什么

帮助中心 付款方式 合同下载
北京蓝纤科技有限公司 Copyright 2000 - 2008
总机:010-64681504  64684094   传真:010-64673024
意动时代建网站联系:888@edo2008.com  代理意动时代自助建站业务:zhangyong@edo2008.com
非上班时间值班电话:13693193565 北京市通信管理局:京ICP证040119号
地址:(100028)北京市朝阳区静安庄一区领先商务中心106