本文要介绍的是关于robots文件的一些信息。0 m; Z% ?0 _4 x7 U5 K! Q" O
robots.txt是一个纯文本形式的文件,例如我们的记事本,当每个搜索引擎蜘蛛访问我们的站点时,蜘蛛首先要检查的就是所在站点是否存在robots.txt文件,如果该文件存在,那么蜘蛛就会按照robots里的协议进行爬取。如果robots.txt不存在那么蜘蛛就会按照链接去爬取各个页面。如果没有配置robots.txt的站点,蜘蛛将被转到,如果没有设置404错误页面这是对搜索引擎不友好的。而robots文件必须是txt完全小写格式,必须放在网站的根目录下。7 u* H* ]: ]9 B
我们可以理解为,robots.txt是一个互联网协议,如果robots里禁止蜘蛛爬取那么蜘蛛就会遵循这个旨意。robots起到引导保护自己不想被蜘蛛爬取的页面。比如说私密文件。# C7 E7 S+ J1 Q+ H3 o" r
那么其重要用途是什么呢? 我们可以合理利用蜘蛛这个特性,来有效的引导蜘蛛的爬行路径,减少蜘蛛的爬行深层页面的压力,从而叫蜘蛛搜索更大的信息,提高网站收录。而在进行网站优化的时候,很多站长都会使用robots来禁止蜘蛛爬取不相关,不利于网站优化的页面。如大量图片,后台,在线购物,在线支付等等。这样就可以提高蜘蛛的爬行能力,这也是网站优化的一个重要细节。
Y% d) H; P$ P l& z 上面我们了解了,robots.txt能给搜索引擎蜘蛛减压,有效的利用robots.txt可以引导蜘蛛爬行路线,爬取更多的页面,提高收录。那么如何制作robots.txt呢。 指令表示搜索robots可以沿着该页面上的链接继续爬取下去。 那么如何设置网站中不想被爬取的部分呢?
3 C1 K5 o+ K; {4 O# t+ y( ^ 首先创建一个纯文本文件 robots.txt,在这个文件中声明该网站中不想被robot访问的部分。该文件必须放在网站根目录下。
1 v5 n' k/ ~; t' T8 {3 A robots.txt文件包含一条或更多的记录,这些记录通过空行分开(以cr、cr / nr、或nl作为结束符),每一条记录格式为: ":" 在该文件中可以使用#进行注解。# n% o4 e, b7 c4 \7 t$ {
robots.txt文件用法举例
2 p( C8 r" ~7 S- O: C3 J1 }3 j( D# w' v 1.禁止所有搜索引擎访问网站的任何部分。
; x+ f; `/ D/ A User-agent:*
# S1 U) b! z/ i2 k Disallow:/. A; N& R7 M' v4 q& H. w/ A
2.禁止某个搜索引擎的访问。
- m2 z! p, L6 Y% K/ Y: M7 { User-agent: BadBot
9 ]4 ~6 `/ Y! T' t Disallow:/
6 w+ G7 r$ k' `- I* ^" U3 d 3.允许某搜索引擎的访问
9 `, B8 i* ^& Z4 o User-agent: baiduspider! a$ F e4 ^1 R! T/ e9 p' Z+ b5 O
Disallow:
" z4 q: r4 C8 X6 e, i User-agent:*
) W4 |* }5 I8 a; z Disallow:/
5 h/ u" ]# w# C- m# d# B L/ n+ p 4.一个简单的例子
% U( h ?1 s! ^; Q; { V 改网站又3个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这3个目录。1 X, p/ X: [8 [+ w8 q3 H
User-agent:*
( C6 u& z. _2 A, K Disallow: /cgi-bin/
" t2 D9 S6 }2 R1 D( N Disallow:/tmp/
' S/ W; b% x0 U. f% G [ Disallow:/admin/5 E2 ~4 H" R0 {; y/ j/ U
需要注意的是对每一个目录需要分开声明。 |