搜索引擎技术抓取网络中海量信息,随着信息增长该技术作用变得越来越凸出,作为SEO技术人员,虽没必要像ZAC对搜索引擎优化技术了解的很透彻,但是分析了解搜索引擎的蜘蛛其对文件的处理方法,研究其搜索与更新策略,是作为SEOer该有的业务发展需要。任何一个网站只要内容更新+外链都能看到搜索引擎对该网站做出相对应的分析,进而增加页面权重,了解搜索引擎技术,从而为我们根据实质性的原理来进行搜索引擎优化,这才是SEO明智之举,而不是每天在那发外链更新网站内容,业余时间还是得学学相关技术。
. g3 P1 P7 J5 b+ e
3 o; X4 g' C& M6 F( T1 m$ b 一蜘蛛工作原理8 D" V5 m J( h6 M8 H6 ^# {
- i. \# N7 x4 B/ {8 @9 q
网络蜘蛛也就是搜索引擎蜘蛛,是通过链接地址来寻找网页的。搜索引擎蜘蛛名称根据搜索引擎都不同。那它的原理是由一个启始链接开始抓取网页内容,同时也采集网页上的链接,并将这些链接作为它下一步抓取的链接地址,如此循环,直到达到某个停止条件后才会停止。停止条件的设定通常是以时间或是数量为依据,可以通过链接的层数来限制网络蜘蛛的爬取。同时页面信息的重要性为客观因素决定了蜘蛛对该网站页面的检索。站长工具中的搜索引擎蜘蛛模拟器其实它就是这个原理,准不准确笔者也不清楚。基于这蜘蛛工作原理,站长都会不自然的增加页面关键词出现次数,虽然对密度产生量的变化,但对蜘蛛而言并没达到一定质的变化。这在搜索引擎优化过程中应该要避免的。
5 [3 h* g* k4 Y' W9 u9 e5 H4 o% X3 N! g7 ~; h6 v* ^$ U/ v q- _
二搜索引擎蜘蛛与网站的交互问题
9 G# K7 x: F3 b- L8 p$ U2 v. w/ h
搜索引擎技术基础中,蜘蛛爬取到网站中,通常会去检索一个文本文件Robots.txt,通常存放在网站的根目录下。它是专门用来同网络蜘蛛交互用的专用文件。这也就是SEOer老是去屏蔽网站页面不想被搜索引擎抓取的原因,它是一个网站和搜索引擎蜘蛛对话的重要工具,但是蜘蛛是否都遵循站长对其实施的规则呢?其实蜘蛛遵循还是得看蜘蛛出身,素质高的会遵循规则,相反则不遵循。另外在网站中放入一个叫做sitmap.htm的网页,并将它作为网站的入口文件,这也是蜘蛛与网站的交互方法。对于交互性的SEO手段,我们了解了就可以针对性的做出符合搜索引擎的蜘蛛喜好的网站地图。+ r; \7 k5 G V* W9 [* ^
# B5 A9 k7 s \8 V1 V 页面Meta字段也是站长经常使用的搜索引擎优化技术,这个字段通常会放在文档的头部,很多站点都只是简单的写个允许百度抓取的字段,正不正确笔者不清楚,SEO其实很多现象都是基于数据分析对比才能得知。Meta字段蜘蛛可以在没有读取到全部文档的情况下就了解文档的相关信息,可以避免将无效的网页取下来后又将其废弃而造成无谓的浪费。) s2 n& v, g# I; E/ S5 e9 f& f N
- y3 a$ H% g9 x m# F8 }: Y9 r) u
三搜索引擎蜘蛛对于文件的处理" t$ ~, o8 c( y) P
* H4 a( B) E2 W, b6 r$ A1 @- u+ F' G (一)二进制文件处理
1 o$ |7 G$ i* H/ N6 e; K, _2 X9 A4 m/ `0 I) g
网络中除了HTML文件和XML文件外,也有大量的二进制文件,搜索引擎对二进制文件采用单独处理的方式,其对内容的理解完全需要依靠二进制文件的锚点描述来完成。锚点描述通常代表了文件的标题或是基本内容,也就是通常所说的锚文字这就是为什么我们要对网站锚文字的分析选择的原因所在。5 Z& I+ r* `, |( k: z- J
9 t& A7 {" W0 p0 W; _$ m (二)脚本文件的处理
2 t6 O' ]2 b. e) Q2 t& { p7 M6 Q' a& W/ B7 y: E" ]' _
网页中的客户端脚本,当网页加载至读取到该脚本,搜索引擎往往会直接省略对它的处理。但是由于现在网站设计者对于无刷新页面要求的提高和对ajax技术的大量使用,对它的分析处理往往会采用另外一种网页检索程序,由于脚本程序复杂和多样性,通常站长会根据自身网站将这些脚本存放到一个文档中,采用调用技术,从而加快页面加载速度,同时蜘蛛也不能对调用文件分析处理。这也属于搜索引擎优化技术,如果忽略了对它的处理将会是一项巨大的损失。4 [5 n; S8 s& V: B6 m* O: o
. m1 ~7 R6 t" D0 a2 z+ O' b
(三)不同文件类型处理
! [/ f& _! T/ m% W+ D8 Q% E# L4 Y
对于网页内容的提取分析一直是网络蜘蛛的重要技术环节,这也是SEO需要去了解的搜索引擎技术,这取决于网站信息更新的多样性。这也就是为什么专业网站上会在网站内附有下载的execl,pdf等各种文件类型,这也是属于搜索引擎优化过程中需要注意的。网上不同文件类型文件的处理,网络蜘蛛通常是采用插件的方式来处理。如果有能力,网站信息内容的更新尽可能采取多样性,来帮助网站达到一个搜索信息多样化的SEO体系。
+ a/ ~8 K5 D0 t: R6 c/ I$ e7 ?5 r8 f2 B
四搜索引擎蜘蛛的策略分析2 @8 z9 Q* I6 ]
7 u4 X8 U( z& F5 U2 c# \
(一)搜索策略1 [5 y. k4 V/ @. ?
, K5 j" T( V9 u+ d0 Q3 z2 o
搜索策略一般有深度优先的搜索策略和广度优先的搜索策略两种。+ v2 J/ O; w( Q- M" x
, q8 i h; S B3 q7 i3 F% k) P
广度优先的搜索策略一般被认为是盲目的搜索。它是一种以搜索更多的网页为优先的一种贪婪的搜索策略。只要有东西检索,它就抓取。它会先读取一个文档,保存下文档上的所有链接,然后读取所有这些链接文档,并依次进行下去。" R e) `3 w: Z# K& l. ^! E) _ K' R, h
d6 K; e! m/ G+ ]2 K& y
深度优先的搜索策略网络蜘蛛程序分析一个文档,并取出它的第一个链接所指的文档继续分析,然后如此继续下去。这样的搜索策略达到了网站结构的分析,以及页面链接深度分析,从而传达网站信息。" V/ X$ F! C$ s5 D+ o5 o
" \% x6 y9 V7 V6 H7 Z7 a: T) q% M( a 还有网络上说的算法,如Hash算法,遗传算法等都是基于搜索引擎核心技术,这些也可以去了解下,比如最新的熊猫算法,这也是基于搜索策略的一种新算法,谷歌对其已经更新好几次了。
/ a7 [. \1 M+ \3 V& S
t- o6 s4 _; s1 }3 I: R+ ?5 F4 P* m (二)更新策略
( K5 y$ v4 F+ C% q$ E P
8 j- I5 }. ~! B7 g: W 以网页变化的周期为依据,只对那些经常变化的网页做更新操作也是一些小型的搜索引擎常采用的方法。这也就是为什么站长会每个几周对网站页面内容的一个小更新,这是基于搜索引擎优化的技术。网络爬虫也经常采用个体更新的策略。它是以个别网页的变化频率来决定对网页的更新频率,这样一来基本上每个网页都会有一个独立的更新频率。+ k, H; |# Y& D. n5 m, Z
|