|
企业在做SEO的会接触到链接这部分内容,在SEO界链接基本分为内链、外链(友情链接)、反链、死链四大类。很多人认为只有页面不存在(404页面)的才称为死链,其实并不是这样的。死链是指已经无法到达的链接,也称作无效连接。死链不仅影响了用户体验,也影响了搜索效果。 E7 `* T+ R: u9 i/ d- w) `
) Y! i- U2 K! c% T9 R9 p
本文将给大家分享下死链对网站的影响:死链是如何产生的,如何发现死链,如何正确的处理死链!
# z1 c/ {) ?3 e: v/ F* w ' c5 U( R& i# ~- N% W* `7 i9 _
$ j- v( b% ?* ^' {3 n
- f4 ?8 o% J* E, X" }: d
一、大量死链对搜索引擎的影响
3 D. x8 @3 I1 l; S$ ^/ m$ m: k T
! U* r" R- G" y9 G
1、死链率过高,会影响搜索引擎对网站的评分。. H+ l' B T" X5 c7 \
2、搜索引擎对每个网站每天抓取的频次是限额的,若网站存在大量死链,会浪费掉抓取配额并影响其他正常页面的抓取。 3、过多死链对网站用户来讲也是体验不好的表现。
! c2 R' J$ d6 ^4 l" e# L
4 W+ ]8 b' Q v, N+ v& K7 k
二、死链接是如何产生的? 3 @/ l8 W5 r; A1 b5 L$ @6 ]2 M8 F+ j
4 e& U. N2 h: }1 T2 T [( I q
# @8 {4 `: j7 e
1、网站内部添加了错误的内部链接
' E9 O- G+ O! F+ }
6 {( g# |# T+ V2 [8 n2 h
编辑失误或者程序员大意让页面产生了不存在的页面。
! I9 `' u' t; D' L0 z9 h& |4 c+ K 2 v3 K2 \1 X4 \8 Q
0 T( O) ~$ t$ _& L+ W) ^$ W, q! v; e
2、网站短暂无法访问 8 |: P" R3 r! L/ g s8 [
# E2 b. w n/ l0 n9 k
因为服务器、空间或程序问题导致网站短暂无法访问,产生大量返回码为5开头的服务器错误页面。
1 @6 T# r9 d6 a: k8 k
: H3 ], d7 }- ?( z5 K1 I/ t% D5 v
- T/ R9 F* r1 J; s7 a- w' N
3、外部链接错误
6 W7 w4 v, a0 ]
4 n7 b0 S/ Q2 B* I c
用户或者站长在站外发布了错误URL;别的网站复制或采集了你们含有错误链接的页面。7 G$ ]2 J% a# _: \% [1 P
2 \4 n) u3 R! |, ?" U6 n, E
7 }# I# ~$ Z$ o! V2 U9 p+ s6 n
4、爬虫提取了不完整的URL
/ R ` _+ i1 G: {/ c+ h1 [
+ }" [& B" \8 w0 j6 d. e+ x
个别爬虫在提取页面URL的时候,因为URL中有不规则字符或者URL与后边的文字链接起来,导致URL失效。
* o- z* t5 ^; \3 ]
) g7 p4 q) t9 C; b9 [
; J. n$ b0 H' C% Y% x
5、网站改版
) m y; K( W" G# |! \
/ @7 u8 \% @( Y. }$ h1 O3 N
如果你的网站已经改版或者将要改版,一定要注意死链问题,很多网站改版后,之前的老页面直接删除,导致了大量的死链接。+ F5 e7 i+ C7 S
; c* S# s! T8 g/ H0 w: W
, B3 k* K8 A2 J- N. Q
6、管理员删除页面
# o: T: J7 Y) L1 ^! u
5 V" G m' U( q+ P
网站管理员删除被黑、广告、过时、被灌水页面导致很多死链接。
/ V" h3 U4 r4 `7 O# e & k' ]5 B+ O% t
$ {7 \8 B- f w: b
三、如何发现网站中存在的死链接? 1 m. h9 ~- V" a
2 }$ X% q, Z( _: _+ ^. e8 b
1、站长工具中的抓取异常工具可以查看最近一个月产生的各种死链,并支持导出功能。 ' ]+ Y8 L* v7 Z8 N
2、使用相关爬虫软件,比如Xenu,此类工具可以爬取全站所有链接并分析页面状态,分析完成后,支持导出功能,提取死链接即可。
) V& Q7 L" P: }
3、在网站运营中,特别是论坛,经常需要删除某些页面,在删除页面时一定要记录对应的Url以便后期提交死链。 2 e9 l( t0 u+ ]0 Y( U) R( O
通过上述两种办法提取的死链列表,一定要经过删重和验证,比如用wps表格进行删除重复链接,然后再使用Http状态批量查询工具验证下是否确实是死链接。 ) w) h( ]. X9 N0 X+ }8 V' Q$ O
' s' X. M/ \, w 四、如何避免和处理死链接? & x" U& `" C2 n% S6 T7 u
`% n7 U2 l* n( m5 I" e/ g
1、网站改版最容易产生死链的9 z7 s$ Q, Q3 c% _
( e: m8 j1 I" m1 H& ?
改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。 ! I4 p, S6 D3 p, O: T* f- w- I
2、对发现的死链接如何处理
. N& J7 b; O$ [( E3 R( ~7 @1 `
将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到 站长工具--网页抓取--死链提交--添加新数据--填写死链文件地址;若大量死链具有一定的规则,如某个目录下全部为死链接,可提交规则死链。
# ]' W' w& M5 p; }" {0 N$ |! w
& g- O5 `8 x& b0 |$ E" {4 k 相关注意事项
) S% ~- j) g5 [. Z7 R
/ P4 t, ]+ v( X9 r
1、在站长工具中提交死链前,一定要确保提交的死链数据不存在活链接。一旦存在活链,会显示提交失败导致无法删除。 j1 q* w& Z% X
2、由于很多网站程序问题,很多打不开的页面返回码并非404,这是一个大问题,比如明明是打不开的页面返回码是301、200、500,如果是200的话,会导致网站中出现不同URL获取相同内容。比如我的一个站,社区的帖子删除后,返回码却是500,后期发现了,立马进行了处理。大家尽量找出所有错误URL格式,并设置HTTP状态码为404。 : I: r( F1 L% x$ P
3、把所有的错误页面找到后,一定要寻找此类页面URL相同特征,并且和正常页面的特征有区分,写对应规则到robots文件中,禁止蜘蛛抓取,就算你已经在站长工具中提交了死链,也建议robots封禁抓取。 5 Y' F: g: w' e5 g( f8 F7 }
4、robots只能解决蜘蛛不再抓取此类页面,但解决不了已经收录页面的快照删除问题,若你的网站被黑,删除了被黑页面,除了robots封禁被黑页面外,还应该将这些页面提交死链。提交死链是删除被黑页面快照的最快办法。
4 N1 O; A, V. M
|