|
什么是搜索引擎蜘蛛抓取份额?顾名思义,抓取份额是搜索引擎蜘蛛花在一个网站上的抓取页面的总的时间上限。对于特定网站,搜索引擎蜘蛛花在这个网站上的总时间是相对固定的,不会无限制地抓取网站所有页面。
搜索引擎蜘蛛抓取配额是什么?
# P! {8 @8 j8 n& `: o1 E; ? 抓取份额的英文Google用的是crawl budget,直译是爬行预算,我觉得不太能说明是什么意思,所以用抓取份额表达这个概念。
8 y; _4 ~7 `% S
抓取份额是由什么决定的呢?这牵扯到抓取需求和抓取速度限制。 : i: x0 @; c9 ]9 {7 i. ?9 Y6 y$ T
抓取需求
; \3 k! ?7 a* L: H0 {/ q2 i
抓取需求,crawl demand,指的是搜索引擎“想”抓取特定网站多少页面。 0 J& f! H- I5 B
决定抓取需求的主要有两个因素。一是页面权重,网站上有多少页面达到了基本页面权重,搜索引擎就想抓取多少页面。二是索引库里页面是否太久没更新了。说到底还是页面权重,权重高的页面就不会太久不更新。 # K W# k" r8 p ]
页面权重和网站权重又是息息相关的,提高网站权重,就能使搜索引擎愿意多抓取页面。 ' L" L. D: N$ O' x( k
抓取速度限制 3 \( C" ]; G5 I6 e* f0 O2 O; M
搜索引擎蜘蛛不会为了抓取更多页面,把人家网站服务器拖垮,所以对某个网站都会设定一个抓取速度的上限,crawl rate limit,也就是服务器能承受的上限,在这个速度限制内,蜘蛛抓取不会拖慢服务器、影响用户访问。
+ v, g' N+ n% _4 V; |- `1 T6 U2 U
服务器反应速度够快,这个速度限制就上调一点,抓取加快,服务器反应速度下降,速度限制跟着下降,抓取减慢,甚至停止抓取。 ' S1 L4 Y( w4 N& B
所以,抓取速度限制是搜索引擎“能”抓取的页面数。 0 B) x2 k! u5 L/ h" j
抓取份额是由什么决定的?
" F6 Y: d5 J. r1 n
抓取份额是考虑抓取需求和抓取速度限制两者之后的结果,也就是搜索引擎“想”抓,同时又“能”抓的页面数。 7 u: f; `5 q' R
网站权重高,页面内容质量高,页面够多,服务器速度够快,抓取份额就大。
4 k# B6 q3 E# G% V! V
小网站没必要担心抓取份额 % z: v2 ^. G& M" p+ \" t
小网站页面数少,即使网站权重再低,服务器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓个几百页,十几天怎么也全站抓取一遍了,所以几千个页面的网站根本不用担心抓取份额的事。数万个页面的网站一般也不是什么大事。每天几百个访问要是能拖慢服务器,SEO就不是主要需要考虑的事了。
1 m5 n9 b$ a1 Z' D" b8 s
大中型网站经常需要考虑抓取份额
/ U2 s1 ?$ H2 V% e- L
几十万页以上的大中型网站,可能要考虑抓取份额够不够的问题。
, ]/ c `9 X& ]7 h' |* l& z8 y9 u
抓取份额不够,比如网站有1千万页面,搜索引擎每天只能抓几万个页面,那么把网站抓一遍可能需要几个月,甚至一年,也可能意味着一些重要页面没办法被抓取,所以也就没排名,或者重要页面不能及时被更新。
+ d9 h2 R9 T) w
要想网站页面被及时、充分抓取,首先要保证服务器够快,页面够小。如果网站有海量高质量数据,抓取份额将受限于抓取速度,提高页面速度直接提高抓取速度限制,因而提高抓取份额。
) N. l8 b" J% U* W) ^
百度站长平台和Google Search Console都有抓取数据。
; n R. U2 J! W" ?" E) s
当然,像前面说的,能抓上百万页是一方面,搜索引擎想不想抓是另一方面。 * w8 ~& A& `- d% k* E3 v1 G
大型网站另一个经常需要考虑抓取份额的原因是,不要把有限的抓取份额浪费在无意义的页面抓取上,导致应该被抓取的重要页面却没有机会被抓取。 8 y3 |* \# L: _9 o. ^; t
浪费抓取份额的典型页面有: 9 }2 [0 t z+ t8 Q, p
大量过滤筛选页面。这一点,几年前关于无效URL爬行索引的帖子里有详细讨论。
7 T# F' S( k! c; `: Y3 k% t
站内复制内容 ) Q' `5 L4 W, m0 x; f
低质、垃圾内容 ! j( J" P, A+ o/ T. J
日历之类的无限个页面
) a c( s6 ]% x2 }
上面这些页面被大量抓取,可能用完抓取份额,该抓的页面却没抓。
7 `- S" A, J( Q0 ~
怎样节省抓取份额? / i2 O! W5 v+ \9 s% s4 p) l
当然首先是降低页面文件大小,提高服务器速度,优化数据库,降低抓取时间。
8 B7 Q6 N, o3 P: K4 f4 r0 s
然后,尽量避免上面列出的浪费抓取份额的东西。有的是内容质量问题,有的是网站结构问题,如果是结构问题,最简单的办法是robots文件禁止抓取,但多少会浪费些页面权重,因为权重只进不出。 9 |6 C" u- L, w$ t7 I( _
某些情况下使用链接nofollow属性可以节省抓取份额。小网站,由于抓取份额用不完,加nofollow是没有意义的。大网站,nofollow是可以在一定程度上控制权重流动和分配的,精心设计的nofollow会使无意义页面权重降低,提升重要页面权重。搜索引擎抓取时会使用一个URL抓取列表,里面待抓URL是按页面权重排序的,重要页面权重提升,会先被抓取,无意义页面权重可能低到搜索引擎不想抓取。
% K- I( D9 c( {
最后几个说明: 2 t* \$ ]3 O- N1 c
链接加nofollow不会浪费抓取份额。但在Google是会浪费权重的。 # O* A, N! `1 g3 X. x0 E' X; D
noindex标签不能节省抓取份额。搜索引擎要知道页面上有noindex标签,就得先抓取这个页面,所以并不节省抓取份额。 & F. h' T6 x8 R4 ]3 a4 c
canonical标签有时候能节省一点抓取份额。和noindex标签一样,搜索引擎要知道页面上有canonical标签,就得先抓取这个页面,所以并不直接节省抓取份额。但有canonical标签的页面被抓取频率经常会降低,所以会节省一点抓取份额。
+ @7 V# L/ P2 l% Z- G, i
抓取速度和抓取份额不是排名因素。但没被抓取的页面也谈不上排名。
& J9 F* c/ R$ F* {& x: k0 }9 d
更多的免费友情链接交换,流量交换尽在:2898站长资源平台
搜索引擎蜘蛛抓取配额是什么?
4 w/ {# z% ]: W+ I) W, ^6 Z7 _1 t
" l- g( W/ p) J2 _7 }3 P |