一,网页去重
m. v# i* u4 ~ |: t2 Q9 ? ~) i, |4 G6 j0 g: V) }
并不是蜘蛛每抓取到一个新的页面就会添加索引(收录),而是要考虑这个网页有没有收率的价值,影响要不要收录某一已抓取下来的网页,一个比较重要的问题是:页面的重复度。: B3 B: B8 q% S6 a8 k
: |; h, p& {! g1 i2 d4 v- M$ E6 m4 x如果同一篇文章,或者具有高度相似度的文章,被多次收录,查询对应关键词是展现的搜索结果用户感兴趣的大部分的前5名,同一篇文收录太多是浪费搜索引擎服务器资源,并且也不能很好地维护原创,搜索引擎就无法给用户提供最新信息。4 N( O" \7 T" O. t& i8 J* A
( ?0 Y( y/ |- @! m i$ U) W4 W' A' d
二,信息结构化* s/ Z2 [ J5 _( y
; c) g+ H- z$ o0 C0 w, u, d, h! U5 Q6 D
爬取程序从互联网上下载页面资源添加到网页库,这个页面包含图片,锚文本,正文…等等信息。搜索引擎需要对网页信息结构化。获得网页中的:页面标题,锚文本,正文标题,正文…由此可见,一个网站所有页面标题都一样有多么可怕。
6 q9 E. p3 r2 C! |2 `: m( u
; q0 A6 I) z& ?$ `6 x0 u: M# y9 Y2 B三,查重技术) X" H, w5 f5 X: D8 _: E
: U- c" A D& p0 F% [2 Z2 w
这里并不是给大家介绍详细的搜索引擎进行网页查重的技术,举一个例子—要想知道两个网页的重复度,参考出现频率高和频率低的关键词是没有多少价值的,可以这样做:一篇文章中去除使用高频率的词jich.net boxuelun.com huayueting1.com,像我们,可能,但是,…这样的词,去除使用频率低的词,像四爷爷,红太郎,李白…两篇文章的中平率词进行对比。大家进行伪原创的时候,喜欢用“然而”代替“但是”,用“咱俩”代替”我们“。其实这些并不是搜索引擎查重的对象,如果进行再深度的高度伪原创,那就付出的代价也不少了。: A* B, ?0 T6 {% e
9 {) r/ M; F0 E4 b0 v( B4 S以上只是一个例子,搜索引擎判断两篇文章相似度的方法有非常多,不付出稍微高成本的伪原创基本是不行的,高质量的伪原创相当于对原文的修饰,使其更适合读者阅读,也算是高质量的文章。
( w3 Y/ l b) s: j! z
/ {$ L" u- C7 J+ F. w& {四,网页消重, z3 U# L w7 h4 o, y, [3 }; V. M6 p
g) O4 ]. `* ]5 o. e6 Z Q& w; G
两个相似度非常高或者重复的文档,搜索引擎应该去掉哪一个,保留哪一个呢?一般有下面三种情况:) l3 ^2 A) p. g2 O& u2 Y5 O% x. `
8 b' t1 O: ^7 s(1)追踪文章的原创,保留原创。
1 I7 {( Y% K; `( U {. w(2)保留用户多,曝光率较大的页面,使页面发挥最大价值。
$ E! e) m' V, e(3)保留最先被收录的页面,这样也是一定程度上保护版权。4 m$ k2 t' h! A# N r/ ^
对于百度搜索引擎来说,我们看到的现象是2和3两种情况,网页消重,但是并不是绝对允许重复收录,我们去搜索一下还是有很多重复的文章。+ {, X K( K* \& q O
) c# ?; c/ m2 }" f$ K9 M$ @追踪文章的原创出处,消耗大,而且不准确。保留用户多的页面,使网页多次被检索到,对搜索引擎的用户体验也是非常有利的,最先被收录的页面可以被认为伪原创页面。这样,我们经常会发现同一篇文章实际上被收录很多,是因为原创被保留,大平台转载的也保留。! d7 z; Z# y9 o# m
I# J* d4 A' J/ S$ M6 w |