一般来说,尽量让搜索引擎抓取和索引更多内容是SEO们经常头疼的一个问题,没有收录、索引就无从谈排名。尤其对达到一定规模的网站来说,使网站充分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计、多么优化,100%收录都是不可能的,只能尽量提高收录率。7 p1 s5 u5 X, K5 v+ N
+ `8 b) d* c3 ]5 u但有时候怎么阻止搜索引擎收录也可能成为一个问题,最近越来越成为问题。需要阻止收录的情况如保密信息、复制内容、广告链接等。过去常用的阻止收录方法包括密码保护、把内容放在表格后面、使用JS/Ajax、使用Flash等。今天看到Google网管博客一篇文章,这些方法都不保险。
% A( a0 S; ~! v4 D+ i
2 j* {) k5 |, ^# e% g使用Flash
! ?& P5 ^- d9 J: o) C( z* i" P! T
5 e8 T. U% V7 Y; CGoogle几年前就开始尝试抓取Flash内容了,简单文字性内容已经能抓取。Flash里面的链接也能被跟踪。
5 v7 N+ I" e% [8 L
7 \% m, |1 [% A6 W/ O9 R- x表格
' A3 L8 _1 H" T: q! F& i/ }& U% k2 s. j* q4 B3 x& C
Google蜘蛛也能填表,也能抓取POST请求页面。这个早就能从日志中看到。
0 m; W# [+ S1 a3 y/ E7 D0 E% e5 }2 m F7 q7 N# c. o
JS/Ajax2 g. s- ^4 [1 R T6 b3 l
0 ?$ a/ k- ]% K
使用JS链接一直以来被当作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但两三年前我就看到JS链接不能阻止Google蜘蛛抓取,不仅JS中出现的URL会被爬,简单的JS还能被执行找到更多URL。: _; q- C, r, o6 n5 `, Y
; x- E7 H2 Z! n前几天有人发现很多网站使用的Facebook评论插件里的评论被爬、被收录,插件本身是个AJAX。这是个好消息。我的一个实验电子商务网站产品评论-功能就因为这个费了不少心思,用Facebook comments插件好处大大的,具体什么好处以后有时间再说,唯一的问题就是评论是AJAX实现的,不能被抓取,而产品评论被收录是目的之一(产生原创内容)。我当时想了半天也没有解决方法,只好先傻傻地既放上Facebook comments插件又打开购物车本身的评论-功能。现在好了,Facebook comments里的评论能被收录,就不用两套评论-功能了。
@2 N( m1 Q; |& Q3 H: M9 w, c, ]& m/ H; @
Robots文件
. }& ^* b5 ?: a$ `. I, {$ T( |5 u- Z4 ^: r# ^! J
目前唯一确保内容不被收录的方法是robots文件禁止。但也有个坏处,会流失权重,虽然内容是不能收录了,但页面成了只接受链接权重、不流出权重的无底洞。
6 U3 N/ }5 U. B- j6 z: a& Y9 ^1 }6 @9 B) z3 M
Nofollow& C, d+ L6 U( `' w$ ^
* ]- `' n a U7 R4 y; Z
Nofollow并不能保证不被收录。就算自己网站所有指向页面的链接都加了NF,也不能保证别人网站不给这个页面弄个链接,搜索引擎还是能发现这个页面。5 `' P$ q) [# s% z5 w0 a
3 p9 ~+ X; a4 l1 B
Meta Noindex + Follow- `8 ?/ R# F/ ^1 V8 _
# {- F' R. M# z(11月3日补充)读者no1se提醒,为防止收录又能传递权重,可以在页面上使用meta noindex和 meta follow,这样页面不收录,但能流出权重。确实如此,也是个比较好的方法。也有一个问题,还是会浪费蜘蛛爬行时间。哪位读者有能防止收录、又没有权重流失、又不浪费爬行时间的方法,请留言,对SEO界功德无量。% E G# {; k/ W3 K& F2 F# F% l
1 G6 ~+ |$ g9 Z0 F4 W% H
怎样使页面不被收录是个值得思考的问题,没意识到严重性的童鞋可以想想自己网站上有多少复制内容、低质量内容、各种无搜索价值(但用户觉得方便、有用所以又不能拿掉)的分类、过滤URL。2 v( f8 n+ r i7 J
# |$ n; l6 H+ E1 ^) ]3 R
|