找回密码
 加入怎通
查看: 1527|回复: 2

[站长八卦] 禁止无效的地址帮助你提高网站权重

[复制链接]
TONY 发表于 2012-03-09 22:40:59 | 显示全部楼层 |阅读模式
  产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从SEO角度看的,这些URL并不能产生SEO作用,反倒有负面作用,所以广州网站建设认为这些URL不收录为好,原因包括:7 S+ R# q6 f$ h  j- I6 k( K4 J+ j) _

: v* b* j6 ?; Y( i7 H3 }4 k0 D9 X  1.大量过滤条件页面内容重复或极为类似(大量复制内容将使网站整体质量下降)
, x5 a, F% \% w  D7 N% k8 u5 \" }; M. N5 R
  2.大量过滤条件页面没有对应产品,页面无内容(如选择"100元以下42寸LED电视"之类的)3 B" Q: c) p! |& U
3 F$ g- k" A2 l+ S  }4 P
  3.绝大部分过滤条件页面没有排名能力(排名能力比分类页面低得多)却浪费一定权重1 j/ U: [, M+ S% ?1 r1 n7 ]
( U' K* c5 g0 A6 l- D2 B
  4.这些过滤条件页面也不是产品页面收录的必要通道(产品页面应该有其它内链帮助爬行和收录)( A7 O6 _8 n1 Y; e8 {

3 J) P, Z) P7 J  5.爬行大量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会下降(过滤条件页面组合起来是巨量的)
$ V& L9 o( J; Z; S+ k; r% y# C. G* c8 a) @; g
  那么怎样尽量使这些URL不被爬行和索引、收录呢?前几天的一篇帖子如何隐藏内容也可能成为SEO问题讨论的是类似问题,这种过滤页面就是想隐藏的内容种类之一.不过可惜,我目前想不出完美的解决方法.云晨守望提出两个方法,我觉得都无法完美解决., C" F4 u/ p% [: s  S  P; F/ Q
3 g* x! y5 q5 u3 c' c7 x
  一是将不想收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录.但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题.虽然参数多到一定程度确实不利于收录,但4、5个参数通常还可以收录.我们无法确认需要多少参数才能阻止收录,所以不能当作一个可靠的方法.而且这些URL接收内链,又没有什么排名能力,还是会浪费一定权重.  第二个方法,robots禁止收录.同样,URL接收了内链也就接收了权重,robots文件禁止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有什么导出链接),页面成为权重只进不出的黑洞.  连向这些URL的链接配合nofollow也不完美,和robots禁止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重同样浪费了.推荐阅读:如何去除死链* S: M5 r7 O# v+ M
/ Q6 f3 j5 p/ K: }' E2 C
  本文由www.147z.com www.hackhy.com整理,A5论坛首发,转载请注明版权信息!
回复

使用道具 举报

tyxz888 发表于 2026-02-11 20:34:19 | 显示全部楼层
内容很干货,没有多余的废话,值得反复看
回复 支持 反对

使用道具 举报

风格化 发表于 2026-03-13 12:11:37 | 显示全部楼层
楼主辛苦了,整理这么多内容,必须点赞收藏
回复 支持 反对

使用道具 举报

    您需要登录后才可以回帖 登录 | 加入怎通

    本版积分规则

    QQ|手机版|小黑屋|网站地图|真牛社区 ( 苏ICP备2023040716号-2 )

    GMT+8, 2026-3-13 14:05 , Processed in 0.064020 second(s), 28 queries , Gzip On.

    免责声明:本站信息来自互联网,本站不对其内容真实性负责,如有侵权等情况请联系420897364#qq.com(把#换成@)删除。

    Powered by Discuz! X3.5

    快速回复 返回顶部 返回列表