我被discuz的同一个帖子多个地址的问题搞疑惑了
我被discuz的同一个帖子多个地址的问题搞疑惑了。discuz同一帖子多个地址的问题由来已久,咱就不纠结他去优化他了。
只要用robots.txt文件禁止对这些地址的索引就是了,我看discuz官方和 扩展的robots.txt规则都是默认一样的,我的也是安装文件里默认自带的,大家都是一样的,为什么官方和扩展就没被收录 相同帖子的动态地址?
大家的robots.txt都是这样的啊:
#
# robots.txt for Discuz! X2
#
User-agent: *
Disallow: /api/
Disallow: /data/
Disallow: /source/
Disallow: /install/
Disallow: /template/
Disallow: /config/
Disallow: /uc_client/
Disallow: /uc_server/
Disallow: /static/
Disallow: /admin.php
Disallow: /search.php
Disallow: /member.php
Disallow: /api.php
Disallow: /misc.php
Disallow: /connect.php
Disallow: /forum.php?mod=redirect*
Disallow: /forum.php?mod=post*
Disallow: /home.php?mod=spacecp*
Disallow: /userapp.php?mod=app&*
Disallow: /*?mod=misc*
Disallow: /*?mod=attachment*
Disallow: /*mobile=yes*
如果我完全禁用掉动态地址,像这样
Disallow: /*?*
我想肯定不行的吧 不行,百度有时候不遵守robots文件的,但是只要你自己在做外部链接的时候注意使用静态就可以有效避免那样的情况出现了 湖中沉 发表于 2011-9-20 13:24 static/image/common/back.gif
不行,百度有时候不遵守robots文件的,但是只要你自己在做外部链接的时候注意使用静态就可以有效避免那样的 ...
做外部链接 的时候我都是用静态的,可是百度还是收录 动态地址,哎,没办法~ ekeysky 发表于 2011-9-20 15:03 static/image/common/back.gif
做外部链接 的时候我都是用静态的,可是百度还是收录 动态地址,哎,没办法~
注意自己内部链接时也尽量避免动态地址(其他就没有办法了,不要经常改动,蜘蛛也有缓存的,而且很长)
页:
[1]