找回密码
 加入怎通
查看: 427|回复: 2

[站长八卦] 教你巧妙运用robots文件

[复制链接]
爱的呼唤 发表于 2012-09-03 17:47:05 | 显示全部楼层 |阅读模式
搞优化的人都知道,搜索引擎去你的网站首先访问的文件就是robots.txt,可见它的重要性,robots.txt就像一个规则,指引着搜索引擎蜘蛛来进行操作,当然蜘蛛根据你写的代码也会做出相应的反应,它也会判断哪些是可以抓取,哪些是不允许。- H& y: {( O5 }0 d6 K: i
    现实中也有很多站长和搞seo的朋友根本不知道robots.txt是什么文件,通常忽略了这个,因为他们的理由就是网站没有重要的信息,所有页面都可以抓取,但是我的个人观点就是假如实在不会用,就建立一个空的文件,保证robots.txt这个存在,这样做是没有坏处的。5 {+ P! ]3 r4 G5 ~% t1 _/ Z4 `
    合理robots.txt文件怎么写?
! ]; B& t" m0 J7 P: K  x9 A    首先我们需要建立这个文件,如果你用的是虚拟主机,就在网站的根目录下新建txt文件,名字是robots.txt,这样当访问你的网站后面加上robots.txt时,就可以看到内容。/ z5 Y7 {+ i2 I5 B4 S# B
     下面烟台seo介绍几个比较重要的写法:( ^8 _/ C- H' e" ^# x
    禁止所有搜索引擎访问网站的所有部分( _7 l- _+ V! [1 ]+ }  z
    User-agent: *
1 S2 f9 O8 Q" @    Disallow: /3 M" e6 ]3 J% `
    禁止百度索引你的网站/ s% }! \' L5 y* a* O1 Z
    User-agent: Baiduspider9 ^# l% ]. l4 |/ _  }, s
    Disallow: /
' D8 C' P% k0 f) @; {5 x# V    禁止Google索引你的网站$ _5 S0 l6 A8 H9 ~
    User-agent: Googlebot9 s9 c* Y1 o* H- ?4 N! n' S. N! ?
    Disallow: /! D1 t. H0 }; p/ e$ B2 c
    禁止蜘蛛访问某个目录% ?# ~/ q  I* {. O2 y$ f
电暖气]http://www.qfxinda.com/* V; T5 q6 E: I2 J
    User-agent: *
( D9 G: s" I: w: F2 j    Disallow: /css// j2 o/ n# X7 w$ o9 @3 X9 K
    Disallow: /admin/' u9 U# v* v# X- t7 f+ Y
    Disallow: /images// l, q2 q4 x# v/ Z8 A. d
    Disallow是不允许的意思,去掉dis就是允许,所以里面的东西可以随便书写,只要复合你想要的就可以,估计屏蔽掉百度抓取的很少吧,但是淘宝就是这么做的,他不允许百度来抓取任何页面,这篇文章我讲的是第二种方法,其实这两种方法你可以随意挑选一种,只要适合你的就可以。
" N6 v" U( U# v' E  M; O
6 t7 n! @7 `0 O: k9 |
回复

使用道具 举报

亿佳网络SEO 发表于 2026-01-22 07:11:30 | 显示全部楼层
楼主太厉害了,整理得这么详细,必须支持
回复 支持 反对

使用道具 举报

快乐小鸟 发表于 2026-03-15 07:20:43 | 显示全部楼层
说得很实在,没有夸大其词,这种真实分享太难得了
回复 支持 反对

使用道具 举报

    您需要登录后才可以回帖 登录 | 加入怎通

    本版积分规则

    QQ|手机版|小黑屋|网站地图|真牛社区 ( 苏ICP备2023040716号-2 )

    GMT+8, 2026-3-19 17:20 , Processed in 0.257957 second(s), 23 queries , Gzip On.

    免责声明:本站信息来自互联网,本站不对其内容真实性负责,如有侵权等情况请联系420897364#qq.com(把#换成@)删除。

    Powered by Discuz! X3.5

    快速回复 返回顶部 返回列表