|
企业在做SEO的会接触到链接这部分内容,在SEO界链接基本分为内链、外链(友情链接)、反链、死链四大类。很多人认为只有页面不存在(404页面)的才称为死链,其实并不是这样的。死链是指已经无法到达的链接,也称作无效连接。死链不仅影响了用户体验,也影响了搜索效果。
5 K5 A( x: T7 [8 B; ?本文小易将给大家分享下死链对网站的影响:死链是如何产生的,如何发现死链,如何正确的处理死链!8 [3 I$ [- a- c
) j/ f- K0 d! i/ i
一、大量死链对搜索引擎的影响 4 P/ ^! T/ v+ G# ~. C& O- r
& `% g, X, r1 |% o+ c
1、死链率过高,会影响搜索引擎对网站的评分。+ j, o6 Q9 J1 O+ K* V( g7 z: e
2、搜索引擎对每个网站每天抓取的频次是限额的,若网站存在大量死链,会浪费掉抓取配额并影响其他正常页面的抓取。 3、过多死链对网站用户来讲也是体验不好的表现。 * D1 y U& Z- l+ Y9 V- v1 y) m
+ L. F( r5 e8 w# Y$ ^/ n L' Q5 Y
二、死链接是如何产生的?
' |2 }" J8 V7 p* U/ p! `: Y
5 q6 C. z& n0 X# Y' t( E2 Y- q& `" W3 A7 B$ [! h- [4 B8 v
1、网站内部添加了错误的内部链接
& \5 e% o: t; b( N4 W! x5 t
) q3 L7 ~. ^& m编辑失误或者程序员大意让页面产生了不存在的页面。# K7 m6 U I9 j" j
5 Y8 T9 c6 p- t( v3 S1 G" M" q
1 D$ s5 p. x6 ]# y
2、网站短暂无法访问 , X$ v9 P" V3 t' K, ?9 W2 Q
3 Q1 \' m) }8 Q% i7 S4 a
因为服务器、空间或程序问题导致网站短暂无法访问,产生大量返回码为5开头的服务器错误页面。
$ t- F' I: v5 m9 \ 0 c4 o+ T2 y2 b* ^; l! O
; [, P) C% E4 v7 z/ L3、外部链接错误 " w- l9 P1 B. b+ e% S( W
" G4 D- C1 H7 A; D; b) g, o
用户或者站长在站外发布了错误URL;别的网站复制或采集了你们含有错误链接的页面。
) E0 W: Q `. z+ L7 W: `% {
5 E* B9 n3 L0 K: W3 ~ R3 R5 {! W7 o, l# D2 l0 S" O( u8 L
4、爬虫提取了不完整的URL 8 k' y# [ [7 w6 {" F+ o* @( B3 V/ O
( N8 A1 x/ @/ @7 ^* W个别爬虫在提取页面URL的时候,因为URL中有不规则字符或者URL与后边的文字链接起来,导致URL失效。
4 p2 r+ p# n/ N; h6 m J 9 w/ m, x5 D7 d$ V h- x
$ H8 E; m0 e- p5、网站改版 5 Q" N( T! ?& q( ]# |3 a: e! c; }
9 B K& H I& |& K* H如果你的网站已经改版或者将要改版,一定要注意死链问题,很多网站改版后,之前的老页面直接删除,导致了大量的死链接。
9 P! o& q& y' r" Z N* n+ _4 Q + n9 S$ j- K% `$ c' t
, F" y+ F2 C8 N- }+ u6、管理员删除页面
3 ?+ k" T9 s5 c- x+ u
, }0 C; {* o1 ]( r! P8 d) y! T网站管理员删除被黑、广告、过时、被灌水页面导致很多死链接。
6 ~! Z) H `. ?) f" i% S3 j: h三、如何发现网站中存在的死链接?
6 E! e' j0 O, U! F4 B' }& \" n" w# Q: J: [# `
1、站长工具中的抓取异常工具可以查看最近一个月产生的各种死链,并支持导出功能。 ; S* O& x+ a' I' @, j
2、使用相关爬虫软件,比如Xenu,此类工具可以爬取全站所有链接并分析页面状态,分析完成后,支持导出功能,提取死链接即可。
8 l8 Y2 i9 O7 }+ [- I% G% c3、在网站运营中,特别是论坛,经常需要删除某些页面,在删除页面时一定要记录对应的Url以便后期提交死链。 ( \+ a- Z* |" K2 F4 i2 ^
通过上述两种办法提取的死链列表,一定要经过删重和验证,比如用wps表格进行删除重复链接,然后再使用Http状态批量查询工具验证下是否确实是死链接。 4 M: v6 K$ @7 [0 T- R
' N( T( F0 j- q* w) B0 d; K+ r四、如何避免和处理死链接?
8 Q4 ^. T/ l6 d+ n( k" F& j
: C: Z8 ?6 L* N0 S' E
1、网站改版最容易产生死链的
# M6 R1 a5 _& G7 `2 O. q j# h
" d: a; t$ e5 w! e2 W
改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。 & X8 C! [1 ?7 l, g# S9 B8 s
2、对发现的死链接如何处理
" U V' e: Q0 A9 a8 N' Q, S将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到 站长工具--网页抓取--死链提交--添加新数据--填写死链文件地址;若大量死链具有一定的规则,如某个目录下全部为死链接,可提交规则死链。
- S# c$ ?. k3 |6 @2 S, @9 Y/ j& a% j2 E" T" [0 q' w J i! U. n' u0 E R9 W# P* H
相关注意事项 $ N* E6 D/ a! S* e& g, ~
4 D4 r. u/ z b; P/ T% H, n
1、在站长工具中提交死链前,一定要确保提交的死链数据不存在活链接。一旦存在活链,会显示提交失败导致无法删除。
% @9 ?' I2 V( i6 S" Q, d9 e2 U! r: y2、由于很多网站程序问题,很多打不开的页面返回码并非404,这是一个大问题,比如明明是打不开的页面返回码是301、200、500,如果是200的话,会导致网站中出现不同URL获取相同内容。比如我的一个站,社区的帖子删除后,返回码却是500,后期发现了,立马进行了处理。大家尽量找出所有错误URL格式,并设置HTTP状态码为404。
) D; g$ Y' I7 }1 G" r3、把所有的错误页面找到后,一定要寻找此类页面URL相同特征,并且和正常页面的特征有区分,写对应规则到robots文件中,禁止蜘蛛抓取,就算你已经在站长工具中提交了死链,也建议robots封禁抓取。
' p3 a1 v* z! H4、robots只能解决蜘蛛不再抓取此类页面,但解决不了已经收录页面的快照删除问题,若你的网站被黑,删除了被黑页面,除了robots封禁被黑页面外,还应该将这些页面提交死链。提交死链是删除被黑页面快照的最快办法。 3 b- z! Y# q( I/ L
2 u% H9 s$ s% s% ~7 U% w4 c
|