|
|
robots.txt文件的运用,在SEO技术里面是比较不易懂的知识,但是SEOER的我们又必须要去了解,因为它牵扯到一些代码、URL在内,也许稍微偏差一字,对网站的影响就和本身的效果远远不同了。- d, h9 t, w, A- [
robots.txt的功能分很多,我们如果合理运用好,对网站的帮助是起很大作用的。接下来我们来介绍一些比较常用的功能。
, m0 J7 u# W- _' b6 t! @& s 一、 利用robots.txt来限制网页快照+ v! J- \7 ~1 K0 Y8 L
很多搜索引擎都提供一个网页快照的功能。但是网页快照功能却有很多的弊端,例如事实内容在网页快照中更新不及时、索引网页快照浪费大量的服务器资源等。因此,我们有些时候可能并不需要搜索引擎来索引我们某个页面的网页快照。/ n6 |' U1 a: C( b# |/ X
解决这样问题的办法很简单,只需要在你的网页元标记中(<head>和</head>之间)放置如下的一段代码。
" f. F: T: X! N& \/ ] <meta name=”robots” content=”noarchive”>
7 m" P0 M/ R P8 D0 z9 G) y+ o5 Y 以上的一段代码限制了所有的搜索引擎建立你的网页快照。如果我们需要仅仅限制一个搜索引擎建立快照的话,就可以像如下这样去写
* I. q& {0 c" J1 B; ^* g <meta name=”Baiduspider” content=”noarchive”># J5 I: w; X. D, d
需要注意的是,这样的标记仅仅是禁止搜索引擎为你的网站建立快照,如果你要禁止搜索引擎索引你的这个页面的话,请参照后面的办法。
6 S& U$ W6 D$ T9 G; Y! b4 X8 ~8 S 二、禁止搜索引擎抓取网页页面
+ u: z1 l% \. w3 s8 v5 T# K. h 在SEO中,禁止搜索引擎抓取本页面或者是允许搜索引擎抓取本页面是经常会用到的。因为网页有一些是我们不需要用来参加关键词排名的,所以可以屏蔽掉。为了让搜索引擎禁止抓取本页面,我们一般的做法是在页面的元标记中加入如下的代码:7 `3 Y2 k$ v$ j! d/ e+ F; m
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>& Y, a1 b4 h. O
<meta content=’武汉SEO(www.seowr.com )’ name=description>
6 Y$ Q* K, _% j4 n7 _, S 在 这里,META NAME=”ROBOTS”是泛指所有的搜索引擎的,在这里我们也可以特指某个搜索引擎,例如META NAME=”Googlebot”、META NAME=”Baiduspide”、META NAME=”www.ccgseo.com”等。content部分有四个命令:index、noindex、follow、nofollow,命令间以英文的“,”分隔。9 F6 b# z* F; l! A C5 L1 X) S
INDEX命令:告诉搜索引擎抓取这个页面/ V( Z7 X2 N& B5 i) O
FOLLOW命令:告诉搜索引擎可以从这个页面上找到链接,然后继续访问抓取下去。6 x4 s8 v/ e9 h. H3 Y# E" o) ^- ]( b8 W
NOINDEX命令:告诉搜索引擎不允许抓取这个页面. t7 }1 Q8 W9 u6 k3 D+ r# W
NOFOLLOW命令:告诉搜索引擎不允许从此页找到链接、拒绝其继续访问。) R) M: n, Z" Q5 d1 |7 D
根据以上的命令,我们就有了一下的四种组合:
1 ^8 a% I1 K4 U' v <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>:可以抓取本页,而且可以顺着本页继续索引别的链接
5 P9 {2 U+ ^3 [9 r" @: h <META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>:不许抓取本页,但是可以顺着本页抓取索引别的链接
" h# p/ z0 E/ U' o { <META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>:可以抓取本页,但是不许顺着本页抓取索引别的链接8 `9 h! S8 t+ i
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>:不许抓取本页,也不许顺着本页抓取索引别的链接。
5 D6 h8 T; _0 v1 L 这里需要注意的是,不可把两个对立的反义词写到一起,例如 www.seowr.com
# U9 I. c4 V% N' h <META NAME=”ROBOTS” CONTENT=”INDEX,NOINDEX”>
; L0 w: t& |* n- X+ J 或者直接同时写上两句
9 D6 X/ o9 m- A+ {) q1 X( }& ]; X <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>3 o! Q ?; W7 p2 {9 z
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>
5 |: I5 E% v$ J+ I$ c* x 这里有一个简便的写法,如果是5 J$ h& }5 M* r9 h
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>的形式的话,可以写成:* t' [: {# c* x5 G) {
<META NAME=”ROBOTS” CONTENT=”ALL”>8 f4 @# U/ I5 G; n" i7 D( _
如果是
3 l! S$ q1 H( r <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>的形式的话,可以写成:<META NAME=”ROBOTS” CONTENT=”NONE”>- U: L8 @8 o' l, O
当然,我们也可以把禁止建立快照和对于搜索引擎的命令写到一个命令元标记中。从上面的文章中我们得知,禁止建立网页快照的命令是noarchive,那么我们就可以写成如下的形式:<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW,noarchive”>
+ }1 D- W( h1 Y3 ^ o) }! H 如果是对于单独的某个搜索引擎不允许建立快照,例如百度,我们就可以写成:
2 s* a' z/ t0 C7 j- i3 I <META NAME=” Baiduspider” CONTENT=”INDEX,FOLLOW,noarchive”>& K/ F H/ a" `( {* w3 G! z
如果在元标记中不屑关于蜘蛛的命令,那么默认的命令即为如下
2 d' z6 O' ~8 B- v <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW, archive”>
7 a3 p2 j' z# C 因此,如果我们对于这一部分把握不准的话,可以直接写上上面的这一行命令,或者是直接留空。% c+ `* T4 a2 T! g) W
在SEO中,对于蜘蛛的控制是非常重要的一部分内容,所以希望各位看官准确把握这部分的内容有些时候我们会遇到这样的困难:我们原本不想被搜索引擎收录的网站后台地址却被搜索引擎“无情”的收录,这样只要在Google里输入一个“后台、管理site: http://www.seowr.com/ ”,自己的后台地址就会显露无疑,因此网站安全性也无从谈起。遇到这样的情况时,我们如何阻止搜索引擎收录我们不想被收录的文件呢?
: ~$ J6 Q3 L7 h! z, r/ t, C 一般在这个时候,我们常用的办法有两个,一个是编辑robots.txt文件,另外一个是在不想被收录的页面头部放置META NAME=”ROBOTS”标签。
& L7 f; `+ q3 J, p 所谓的robots.txt文件,是每一个搜索引擎到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过这个文件,搜索引擎就可以知道在你的网站中,哪些文件是可以被索引的,哪些文件是被拒绝索引的。+ j7 L/ B3 ~9 |& Q0 o2 ~# n
在很多网站中,站长们都忽略了使用robots.txt文件。因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使用robots.txt的语法,因此一旦写错了会带来更多的麻烦,还不如干脆不用。
; ?2 y( r+ I$ G4 t5 E, }: j 其实这样的做法是不对的。在前面的文章中我们知道,如果一个网站有大量文件找不到的时候(404),搜索引擎就会降低网站的权重。而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎要是找不到这个文件,也会在他的索引服务器上记录下一条404信息。
8 @+ k, R8 o5 h3 I3 x 虽然在百度的帮助文件中,有这样的一句话“请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。”但是我个人还是认为建立robots.txt还是必须的,哪怕这个robots.txt文件是一个空白的文本文档都可以。因为我们的网站毕竟不是仅仅会被百度收录,同时也会被其他搜索引擎收录的,所以,上传一个robots.txt文件还是没有什么坏处的。
4 `) n- `$ V0 w, g+ M 如何写一个合理的robots.txt文件?
* E; K7 C" `8 Q+ |2 D 首先我们需要了解robots.txt文件的一些基本语法。
8 e% T9 G, O; y% k 语法作用! W9 H6 ~ n l& A2 v
写法允许所有搜索引擎访问网站的所有部分7 h* G9 c0 m9 d1 V
或者建立一个空白的文本文档,命名为robots.txt
1 P. A8 F$ {, m4 ]9 K; ?; U User-agent: *8 T+ R9 [! I- A4 \9 y' t8 i* n
Disallow:
1 S0 s, A, S* W3 e 或者
, a- w' W+ G% n- @. I% |7 b1 Y User-agent: *
. L& P O5 ?. R Allow: /
( B" `' c- T. j5 {5 s 禁止所有搜索引擎访问网站的所有部分4 ^4 ?0 A! T/ d! Q
User-agent: *
& y) P3 V Y1 ^8 R Disallow: /
) F" `, K( ]% W. d 禁止百度索引你的网站( c% b+ i, p/ u' Q) s
User-agent: Baiduspider
% x" M5 j8 a4 D# {6 D0 h# | Disallow: /# Q/ K2 n, J% N q# X
禁止Google索引你的网站, f) O! R+ I7 Y3 N& K
User-agent: Googlebot5 a3 R( \6 z# z/ I
Disallow: /* G! s- B, @/ a) A7 \) ?5 F
禁止除Google外的一切搜索引擎索引你的网站
4 r3 ~$ r' w) b5 [- R0 m' @: }$ H) F User-agent: Googlebot! v' {# a; W3 Z7 [% u1 T9 C
Disallow:
$ a4 d- E7 O8 v; c User-agent: *
! q0 U6 D. r3 R3 z Disallow: // c( c3 u. ?' H% O) t% O9 Y! V! x% C9 _
禁止除百度外的一切搜索引擎索引你的网站6 B1 h9 N! u1 o8 X5 J z$ S
User-agent: Baiduspider
, J& _! R- Y; @0 }. @+ f Disallow:
! @" i+ n: N5 Z User-agent: *( }9 m! R9 Z- f5 g A/ k% I$ l
Disallow: /
. d+ B0 F& C# g( s 禁止蜘蛛访问某个目录! Y( O0 N% q7 L
(例如禁止admin\css\images被索引)
- q; o7 u, c5 W/ V. E( \ User-agent: *
. [$ e: ]1 w T4 U( s' T Disallow: /css/
, f+ a* ?1 w: \9 y Disallow: /admin/
3 Y7 K. \9 ?! B Disallow: /images/
/ T/ c7 k8 z9 h6 w 允许访问某个目录中的某些特定网址0 l8 k4 Z4 b4 g
User-agent: *5 [/ e# n3 f. F2 I: p
Allow: /css/my
: x7 t$ A6 Q: a* y Allow: /adminml
; C% y( O* y4 e( U8 i Allow: /images/index
% v: @' n0 P, ^# B* O- f; i1 e( | Disallow: /css/
1 m4 o+ G& Y; q Disallow: /admin/
7 Z: G/ Q# q @# X Disallow: /images/
/ ]. ?: A% J1 k3 Q 使用“*”,限制访问某个后缀的域名,例如索引访问admin目录下所有ASP的文件 b7 R4 c. C9 b; ~4 x& G/ J: [+ n
User-agent: *
- a; ], I) F' ~ Disallow: /admin/*.htm' p4 x( c! u: a' J5 G# j
使用“$”仅允许访问某目录下某个后缀的文件
. c. r) J G/ J- K- Z7 V1 G! H User-agent: *# ~! X3 g$ y1 G/ j, u
Allow: .asp$
* [, h' h% e! R9 O. k) c Disallow: /
8 f) K% F9 n5 M 禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,例如index.asp?id=1)4 T# O k- O5 f$ O# B v# D
User-agent: * I9 g4 m6 I7 ?: n5 p! V
Disallow: /*?*' @& s, [" P2 U$ U" e
有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还可以采取直接屏蔽图片后缀名的方式。具体办法如下。
$ Y- e2 m. q% D, |9 X* H# {4 n 语法作用
6 H/ O& y6 H+ m v7 ]" A( f& ?$ g 写法: u; c W4 K1 h2 ~. `
禁止Google搜索引擎抓取你网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)( a& V. M; E. X. j
User-agent: Googlebot
4 g9 r: u c; m; S2 C' O; u# H8 W Disallow: .jpg$; P3 L C) i# Z# G! x" e
Disallow: .jpeg$
) h/ o) @% q2 `1 P6 @2 ~0 ?$ K% C Disallow: .gif$; A& @' R9 W3 u ]% E
Disallow: .png$
& g5 M( `" z: Q3 Q0 z/ x Disallow: .bmp$9 Q9 Y E9 ?; h4 N9 |
禁止百度搜索引擎抓取你网站上的所有图片
5 E+ h5 C2 D7 @5 a A User-agent: Baiduspider
F& P" D5 L1 G& {+ _4 c' | Disallow: .jpg$ ^5 `0 R7 _& b
Disallow: .jpeg$
6 c5 Q* a5 h; g- `6 `4 F1 h6 l Disallow: .gif$& r& i8 a" [9 Q' T9 h5 w, Q4 a
Disallow: .png$+ P- r K7 J& ]4 F! ?' s" E$ n J
Disallow: .bmp$
, y! ]$ t4 e: v4 C0 `7 k- } 除了百度之外和Google之外,禁止其他搜索引擎抓取你网站的图片(注意,在这里为了让各位看的更明白,因此使用一个比较笨的办法——对于单个搜索引擎单独定义。) O. _+ {# T4 Q: q
User-agent: Baiduspider; e/ [; `! ^1 r* {0 c+ s
Allow: .jpeg$
7 X- X) p5 ], P$ B0 T; Q Allow: .gif$2 L8 a* [8 e) H6 @% j6 [! A+ j" D
Allow: .png$
) ]. k# t; O. s' V8 `. L. k Allow: .bmp$
7 G- N2 p$ ^% e# r User-agent: Googlebot% Z0 s2 M; T, Y- u- u2 t0 l
Allow: .jpeg$- L3 m8 A2 N1 b O2 d/ P
Allow: .gif$
8 R$ q6 F9 }3 C4 @3 Y4 [; d Allow: .png$
' |/ Y0 i8 Z9 Y W7 X' ~ Allow: .bmp$
5 h7 A' Z- a$ \# x$ g User-agent: *
# e1 R( a! a, d+ S Disallow: .jpg$
) U' l- P& L4 i Disallow: .jpeg$) |1 u# u9 o( @3 d
Disallow: .gif$0 \: e8 _. N1 t* [8 p5 ^
Disallow: .png$ x# ?# F8 j k; R' q2 Z d
Disallow: .bmp$
) E% K6 @2 G* L7 s 仅仅允许百度抓取网站上的“JPG”格式文件(其他搜索引擎的办法也和这个一样,只是修改一下搜索引擎的蜘蛛名称即可)* j+ _1 Y+ K$ u0 b- W' L
User-agent: Baiduspider
, o# h. p. j- E5 K3 v2 `8 V Allow: .jpg$
2 J& H$ o! R. a Disallow: .jpeg$8 I0 t; s; q" c2 ]7 B1 X
Disallow: .gif$
( O" q+ t; S9 L- A! ~) }% K Disallow: .png$% y: k3 G2 w2 `) W( l
Disallow: .bmp$) n d5 \, ?9 T2 g! U, e8 b& \9 K0 z
仅仅禁止百度抓取网站上的“JPG”格式文件
5 r* F, ]' d* q+ R User-agent: Baiduspider" k7 F1 t2 A# J' m
Disallow: .jpg$
$ A- `$ Y" l2 Z: v, g, k 如果你看完以上这些,并记下,相信你对robots.txt已经有基本了解和认识。光知道还不是你的,要能在网站上运用出来,知识才是你的。 |
|