找回密码
 加入怎通
查看: 406|回复: 1

[站长八卦] 网站重复内容的危害性

[复制链接]
添美-阿吉 发表于 2013-05-14 11:52:22 | 显示全部楼层 |阅读模式
5 e5 @: E  l! ?' ?! i) s
   1,网址规范化问题。' H% P! X, ^+ W/ C
    网址规范化问题包括主域名的规范化和页面URL地址规范化两个方面,主域名的规范化需要规范化。另外是内页URL的规范化,通常为了让搜索引擎能够更好的抓取网站内容,我们会将URL进行伪静态处理,而一般的网站伪静态之后,原始的动态URL依然存在并能够访问,这样就造成了多个URL访问相同网址。
7 e4 A8 D0 w- m6 ~6 A- n) N2,网站结构
; x8 l+ e6 T9 w% a* z    很多网站在结构设计之初并没考虑SEO方面的因素,结果是导致造成各种页面版本,比如产品按价格,评论,时间排序等,特别是一些电子商务网站,这种页面重复现象尤为严重。 
6 w$ E$ t  \' H" W9 q$ X6 V( ]' P5 ]3,内容的其他版本
8 B/ {+ N. h: |& W    很多网站除了提供正常的版本之外还提供一些其它的浏览版本,比如打印版本或者简版,却并没有禁止搜索引擎去抓取这些页面,而这些页面也因此变成了重复内容页面。! c3 w+ R) _$ m- ^- C1 f' J
4,URL任意加字符还是返回200状态码。
3 }( w0 E) Y2 ?    一些网站是因为网站程序和技术的原因,用户在URL参数后面随意加上一些字符都能够正常访问,并且页面是和没加之前的完全重复。
- [2 H2 A% d6 z/ R8 J    检查页面是否有重复版本有一个比较简单的方法,就是将内容随机选择一句话加双引号后进行搜索,从结果中就可以看到有多少个重复的页面。因为通常来说随机选一句话进行搜索完全生命的机率是比较小的。8 D0 g1 y8 H0 {$ W+ ^3 g+ k
重复内容的危害
. ^2 v+ v7 k6 s     很多做SEO的存在一个误区,那就是认为如果网站上有重复内容就会被搜索引擎惩罚,其实倒没有这么严重,搜索引擎会在所有的重复页面中选择一个认为最佳的版本去参与排名,其它相似的内容不会同时拥有排名。
7 O2 b6 O% A. w% ~( ?  I8 E那么问题也就来了,第一,搜索引擎如何去判断哪个页面是最正版的,是否和网站管理员想推荐的页面一致,如果搜索引擎判断失误,把原创的页面当成了复制内容,复制页面当成了原创页面,而你在进行推广的过程中却是原版,那就是做了无用功。另外同一个网站内的页面存在多个复制内容会分散页面权重,既然页面在网站上出现了,就必然会有链接链向这个页面,而如果链接是统一的,那以全部的权重都可以进行集中,同时相同页面的收录在一定程度上也占用了搜索引擎蜘蛛的抓取精力,减少了原本真正需要进行抓取页面的收录机率。
. X) h, h) e8 f2 t$ x  m& ]" E' _& h0 Z8 f
回复

使用道具 举报

ganbing9 发表于 2026-03-17 12:14:59 | 显示全部楼层
楼主太厉害了,整理得这么详细,必须支持
回复 支持 反对

使用道具 举报

    您需要登录后才可以回帖 登录 | 加入怎通

    本版积分规则

    QQ|手机版|小黑屋|网站地图|真牛社区 ( 苏ICP备2023040716号-2 )

    GMT+8, 2026-5-1 05:11 , Processed in 0.145686 second(s), 24 queries , Gzip On.

    免责声明:本站信息来自互联网,本站不对其内容真实性负责,如有侵权等情况请联系420897364#qq.com(把#换成@)删除。

    Powered by Discuz! X3.5

    快速回复 返回顶部 返回列表