找回密码
 注册加入
搜索
查看: 3337|回复: 0

禁止搜索引擎索引的制作

[分享]
发表于 2011-10-10 08:09:54 | 显示全部楼层 |阅读模式
核心提示:屏蔽蜘蛛爬行目录,可以有效提高蜘蛛的执行效率。User-agent:指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如: User-agent: Googlebot只允许Google的蜘蛛抓取; User-agent: *允许所有蜘蛛抓取。
做SEO我们经常碰到这样的问题,很多客户在做好排名以后或者提供好优质服务以后,他们并没有想象中的那种电话量不断的效果,于是就碰到拒绝付款的客户。或者是,由于我们网站的文章权威性,为了保证我们的原创和权威性,不易被搜索引擎检索。那么我们就需要使用到一种常见的方式:屏蔽百度谷歌等搜索引擎蜘蛛。

方法一、创建robots.txt文本

对于robots.txt文本的相关概念或者是协议我就不提了,主要是直接告诉大家这个文件的写法。

文件应该同时包含2个域,“User-agent:”和“Disallow:”,每条指令独立一行。

(1)User-agent:

指定允许哪些蜘蛛抓取,如果给出参数,则只有指定的蜘蛛能够抓取;如值为通配符“*”号,代表允许所有蜘蛛抓取。如:

User-agent: Googlebot

只允许Google的蜘蛛抓取;

User-agent: *

允许所有蜘蛛抓取。

注意:User-agent必须出现在第一行(有意义的行,注释除外),首先声明用户代理。

(2)Disallow:

指定禁止蜘蛛抓取的目录或文件,如:

Disallow: /help.php

禁止抓取根目录下help.php文件;

Disallow: /admin/

禁止抓取根目录下的admin子目录中任何内容;

Disallow:

值为空时,表示不限制,蜘蛛可以抓取站内任何内容。

Disallow: /

禁止了蜘蛛抓取根目录下的所有内容。

如果需要指定多个目录或文件,可以用多个“Disallow: 文件或目录名”来指定,但必须每一项单独一行。

示例:

禁止百度蜘蛛:

User-agent: baiduspider
Disallow: /

禁止谷歌蜘蛛:

User-agent: Googlebot
Disallow: /

禁止所有蜘蛛:

User-agent: *

Disallow: /

方法二、robots Meta标签

robots.txt是放在网站中,文件级的网络蜘蛛授权;而robots Meta标签是放在网页中,一般用于部分网页需要单独设置的情况下。两者的功能是一样的。

Meta robots标签必须放在<head>和</head>之间,格式:

<meta name=”robots” content=”index,follow” />

content中的值决定允许抓取的类型,必须同时包含两个值:是否允许索引(index)和是否跟踪链接(follow,也可以理解为是否允许沿着网页中的超级链接继续抓取)。共有4个参数可选,组成4个组合:

index,follow:允许抓取本页,允许跟踪链接。
index,nofollow:允许抓取本页,但禁止跟踪链接。
noindex,follow:禁止抓取本页,但允许跟踪链接。
noindex,nofllow:禁止抓取本页,同时禁止跟踪本页中的链接。
以上1和4还有另一种写法:

index,follow可以写成all,如:

<meta name=”robots” content=”all” />

noindex,nofollow可以写成none,如:

<meta name=”robots” content=”none” />

需要注意的是,robots Meta标签很多搜索引擎是不支持的,只有少数搜索引擎能够识别并按给定的值抓取。所以,尽可能的使用robots.txt文件来限制抓取。

您需要登录后才可以回帖 登录 | 注册加入

本版积分规则

Archiver|手机版|小黑屋|Discuz!扩展中心 - 杭州富迪文化艺术策划有限公司 版权所有 ( 浙ICP备14042422号-1 )|网站地图QQ机器人

GMT+8, 2025-5-4 14:32 , Processed in 0.421926 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz! X5.0

© 2001-2025 Discuz! Team.|IP地址位置数据由 纯真CZ88 提供支持

快速回复 返回顶部 返回列表