找回密码
 加入怎通
查看: 351|回复: 5

[站长八卦] 你的网站为何不能被充分的收录呢

[复制链接]
死了都要爱 发表于 2012-12-25 10:03:09 | 显示全部楼层 |阅读模式
       网站上线后首先要做的就是提交网址给搜索引擎,搜索引擎收到网址的请求后,并会安排蜘蛛对网站进行抓取,但是不尽人意的是蜘蛛总是不能对网站进行充分收录,网站的实际收录率非常低,到底是什么原因导致网站不能被充分收录,是网站结构问题、是网站权重问题、还是网站优化问题?广州兼职吧给大家揭秘不能充分收录的真实原因。& B' H( D* T, d: @
9 c" T# g" y0 P
  第一:被robots.txt文件屏蔽。在分析网站日志时发现蜘蛛每天都会在网站抓取,但是网站依然是收录不充分,这时我们很有必要检测网站的robots文件,站长们都知道蜘蛛来网站抓取时,首先会检索网站是否存在robots文件,查看网站是否已经存在不需要抓取的页面,看文件中是否阻止了网站中某部分内容,很多站长因为不会正确的写robots文件,导致网站不能被充分的收录。对于很多新手站长不知道如何写文件,可以利用百度站长工具robots文件功能,可以检测你的文件写法是否正确,或者可以直接帮你生成文件,需要你填写屏蔽的文件路径即可。如下面的例子:
! T- S8 A) N9 b: W# [: R8 G' L% ]- ?1 V
  User-agent: *' j# n3 i& O/ k2 J# Z( [# I' W; N; s
. h- l; R% |* H: _
  Disallow: /news / 不允许所有的搜索引擎抓取news路径下的内容
9 h# B$ F- @3 Q
1 F1 g- t( x) r2 I9 e  O  如果某网站上添加了上面的文件,蜘蛛并不会抓取网站上在news路径下的内容,网站在news目录下更新的文章永远不会被收录,网站更新再多的文章,访问日志中蜘蛛每天都来抓取,但是对于这些内容还是不会给予收录。但是对于网站来说news下的内容是很重要的,这样错误的robots文件并是网站不能被充分收录的幕后黑手。1 J* r/ t/ v# D/ u. a  i$ `
5 c, c, F  U, v; w2 Z( \
  第二: robots meta标签禁止,网站在诊断的过程中,发现网站的实际收录率很低,网站有的栏目页可以被收录完整,但是有的栏目页更新原创的文章,也不会被收录,之后在检查网站代码时才发现,页面上使用了 noindex标签告诉蜘蛛不允许索引这个页面,显然保护这段代码的栏目页不会被收录,更新的内容即使质量再高也不会被抓取。同时,nofollow标签告诉蜘蛛此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就是明显的告诉搜索引擎此页面没有任何价值。如果你的站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。
9 v6 u, [" X7 ~5 a1 U- g8 M. h9 C) ]) I5 }: O) U6 f
  第三:页面没有被访问过,特别对于一些大型的内容型网站来说,网站上的内容页面特别多,网站之间如果不能很好的建立内链,很多页面可能就会面临着被沉底不收录的现象,这些页面大多数离网站首页深度比较深,蜘蛛无法对页面进行爬行,导致不能被蜘蛛收录。或者是链接到此页面的链接都是加了nofollow标签,不传递任何权重的链接。因为这种原因导致网站不被充分收录比较冤枉,对于网站的建设来说,最好不要在网站上使用nofollow标签、JS代码、或者蜘蛛不能识别的转向等。对于网站页面深度比较深的情况,站长们可以完善网站的内链建设,不要网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,提高页面在搜索引擎中的权重值。
% K2 b; u/ l/ u. P2 }) G
+ G5 s5 _$ t* ^  第四:被蜘蛛当做是作弊的内容,网站中大量的使用heimaoSEO,作弊的手法优化页面,这样的页面蜘蛛是不会给予收录的。网站上长期使用隐藏文字在页面上进行关键词堆积,网站上对蜘蛛检索到存在隐藏文字和链接,这时你的网站很有可能会被蜘蛛从索引中删除,不会再次出现在搜索页面中。站长们可能会问什么是作弊的内容,如最初的作弊方法使用和背景颜色相同的文字,堆积大量的关键词,这种作弊方法很容易被检测出来;使用noscript标签,告诉浏览器当页面上有JS时,当浏览器关闭时,页面上该显示什么内容,事实上是在noscript标签中堆积很多关键词,这种做法是相关有危险的,很容易就会导致内容被删除。' q4 W# u' Q0 s% U7 W, G5 M

- I1 W6 l) i' T3 w6 o- n  第五:低质量内容垃圾站点,除去上面说到的4点优化方法上的原因,还有个重要的不可忽视的就是页面本身的问题,搜索引擎识别能力逐渐加强,对于非高质量非原创的内容,蜘蛛有一定的识别能力,不管是本身网站的重复内容,还是网站从外部获得的重复内容,蜘蛛都能一定程度的对其识别,对于重复的内容页面,蜘蛛不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。在互联网垃圾泡沫的时代,要想真正的做到收录充分,网站权重高,还是要坚持去做高质量的内容,这样才能长久在业界生存。
) x! X. \; p8 V3 l% u5 X0 x) K& I6 m3 U5 t7 e: _
  小编认为即使网站权重不高,只要网站不犯以上说到的5点错误,网站想要被完全充分的收录还是可以的,互联网垃圾泡沫时代永远不会结束,但是只要站长们自己不做为其中一员,认真做自己的优化,不触犯搜索引擎的规则,迎合算法的更新,网站并可长期稳定的存活下来。! n; ?  I' }3 _2 b6 P5 O
CMS建站程序 http://www.zzbaike.com/wiki
. C$ q0 Y0 u" I  _; p! M# I& {
  T3 G5 {3 A! I* v) l7 [: D! l
0 |0 E/ i6 d* H5 m( T! @% p4 @

; p5 q2 q9 R, t* ]
  Z5 h( |7 A" Z, E& D4 z
4 ]" G, c! D5 {9 m! L

$ T6 h0 S% r. w( P" B2 m5 H
回复

使用道具 举报

西万路小混混 发表于 2026-01-21 01:35:41 | 显示全部楼层
刚好遇到类似问题,看完这个帖子心里有底了
回复 支持 反对

使用道具 举报

闪闪星 发表于 2026-02-19 17:28:17 | 显示全部楼层
学习到了,之前一直没注意过这个点,受教了
回复 支持 反对

使用道具 举报

达达01 发表于 2026-02-23 06:20:07 | 显示全部楼层
完全赞同,我也是这么认为的,英雄所见略同~
回复 支持 反对

使用道具 举报

as发达省份的 发表于 2026-02-26 06:25:02 | 显示全部楼层
蹲了这么久,终于看到有价值的讨论,支持一下!
回复 支持 反对

使用道具 举报

1396 发表于 2026-03-26 22:05:12 | 显示全部楼层
说得很实在,没有夸大其词,这种真实分享太难得了
回复 支持 反对

使用道具 举报

    您需要登录后才可以回帖 登录 | 加入怎通

    本版积分规则

    QQ|手机版|小黑屋|网站地图|真牛社区 ( 苏ICP备2023040716号-2 )

    GMT+8, 2026-4-28 01:24 , Processed in 0.166352 second(s), 24 queries , Gzip On.

    免责声明:本站信息来自互联网,本站不对其内容真实性负责,如有侵权等情况请联系420897364#qq.com(把#换成@)删除。

    Powered by Discuz! X3.5

    快速回复 返回顶部 返回列表