, l# }+ B7 ^' K0 J4 f2 [) ^9 X b, e* Y
$ _7 u2 t' L; I0 N6 r$ E站点的升级是每一个站点生命历程中不可缺少的一环。而如何处理升级过程中出现的问题考验着每一个想成功的优化人员。在站点升级过程中我们难免会遇到死链接,尤其是哪一些收录量很大的站点。而这一些存在的死链接不仅会严重影响到站点的权重,而且如果有大量的死链接会导致蜘蛛无法顺畅的爬行你的站点,最终导致的是收录和快照都跟不上。那么对于因为改版而产生的死链接我们要如何妥善的处理呢?笔者今天就简单的分享自己的三点心得。
) `! o8 c* m4 J: Q% t3 o b/ j+ h" n一:使用Robots.txt屏蔽或者使用301重定向
, L& J, S3 m6 v6 a' q对于这个方法是很多站长最长使用的方法之一。但是这个也会遇到一个问题,那就是如果你的站点的内容很庞大,就如笔者的站点,在改版升级之前收录有26万3000,如下图所示,能不能使用这两个方法呢?因为笔者的站点改版后,内容层次分布有改动,所以没办法用简单的Robots文件屏蔽,只能使用301重定向,但是这么大的收录量,使用这个方法是最耗时耗力的方法。 T% b% y. g2 [# B. F
& `. e+ \9 [- o
; _# N6 z ^ Y k* t5 W; W1 f( D
) A a6 n3 c( t4 k
0 j' {8 ?% q y' B- t: h
! d# Y8 B3 U* \3 S D! ~, ~
/ q8 P- }( f; m( K; ]6 @' N) \
二:直接使用404错误页面
5 e4 V0 V# M# k+ F0 k这个方法对于收录量大的站点还是很有用的,将站点内部存在的死链接直接跳转到404错误页面。然后通过404错误页面将用户引导到改版后的压面。这样可以降低网站流量的流失,使得用户可以找到站点。对于404页面的跳转时间的设置,笔者认为不要太短,最好在八秒到十秒左右,而且页面有引诱访客自行点击的链接,如下图所示,让用户自行点击会比直接跳转更好。 j8 _$ G- H# p' V& c: |1 A
% b3 f/ f* Y" }' R" C# t7 h" K. D0 p# w
9 ~% `' D! X. S+ y
* J) N e' }& L1 J3 k
5 i5 \3 e3 g, s2 U; L0 l
, R1 T9 L+ K! M, h三:坚持内容的稳定更新 ( x. ]9 a2 q2 G& `, ]
对于一个刚升级的站点,稳定的进行内容的更新是至关重要的,这样不仅可以快速的在升级后吸引到蜘蛛的爬行,而且也可以让蜘蛛再次抓取旧的数据来进行替换。搜索引擎蜘蛛通常都是采取广度优先,以超链接的形式来进行爬行站点。因此我们在稳定更新站点内容的同时也要合理的进行內链的构建,一步步稳定的吸引蜘蛛,达到重新收录内容,删除旧收录的信息的效果。 6 n8 P* d! J+ Y- \% I6 e
笔者认为对于一个有着大量收录的站点来说,最有效而直接的处理改版后大量的死链接的方法就是第二和第三。使用这两个方法不仅可以降低权重的损失,而且也可以减少流量的流失。 |