未收录不代表未抓取
. Q, L1 ?0 r" T3 m
& I$ e; {# Z& v+ W9 Y确实,为了SEO的发展,自己辛辛苦苦写了两篇原创文章,被一个大型网站抄袭秒收录,而自己的站点却不收录,这是一件非常让人尴尬的事情,那么真的不收录,就不是原创了吗?
! R; y' l6 I1 V' u) |$ v, @! F b
" @9 ?# R& D' l2 l: u J很多朋友是这样认为的,自己的文章没有被收录,而抄袭者的却收录了,所以百度判断自己抄袭了别人的文章,所以自己权重也就一直上不来,排名一直没有。其实这是一个错误的观点,我曾在百度排名规则的文章中提到,百度收录是需要经过抓取-识别-释放这三个流程。其中在释放的流程中,需要判断整体网站的质量,当整体网站质量过关,收录相对较快,当整体网站信誉度没有达到百度的标准,百度将会暂时保留你的文章,不被释放出来。
7 E/ l/ T; f4 A+ I0 L
6 D$ U4 {1 G, r4 c, }不被释放出来,但是已经经过了抓取和识别这两个流程,在这里特别的说一下抓取的流程,当网站建立以后,提交到搜索引擎,搜索引擎基本每天都会来抓取,大家可以试着安装百度云加速后台可以统计出抓取的页面,如果抓取不够,也可以在百度站长平台中设置抓取频率和sitemap自动推送,这样抓取的是完全没有压力。设置方法如下:+ r) G1 N/ d0 R$ e) h
H! K3 |: e( ~( t. o打开【百度站长平台】点击左侧导航【我的网站】-【站点管理】-【添加网站】-输入网站域名,根据自身条件验证网站。3 U$ L. ~2 _; _3 e- i
* g1 |3 Y0 Y. L0 M- ]% H5 @然后点击左侧导航【页面抓取】-【链接管理】-提交方式选择【sitemap】,然后将自己的网站地图提交上去,更新时间更具你网站的更新时间来设置,比如网站每天更新一篇文章,那么就填写1天,论坛、门户可能添加的比较多。
0 b A3 L8 E7 r: S2 x. q! A$ D% L! f2 t- I; y+ t
另外在把sitemap地图写到robots里面,抓取基本是完全没有问题,那么接下来就进入识别系统,每一个页面抓取了,就一定会进行识别对比,是否会出现重复,与互联网的内容重复度有多少,从而判断出页面的原创度。那么在已经判断出原创度的时候,再来谈收录,先收录谁不代表谁就是原创了!& a7 I7 n+ e6 V0 n0 |# B$ F P
. H+ o( f2 Q/ s) }9 _3 ~* W; w如何判断文章的原创度?
7 K3 T& X2 E6 T7 N) }" d4 Y: o' A+ B U" l# W# X8 l
并不是你网站有文章,是你自己写的,就一定会被搜索引擎认为这是一篇原创文章,因为其中还有很多技术方面的问题,搜索引擎还未能解决。$ u5 o. F9 I" Z
* [* E! B, s( s7 X" L; d% _记得曾经在一个网站每天更新一篇文章,一篇文章的字数只有100字左右,但是文章页面非常简单,简单到整个页面没有JS、CSS、HTML代码,只有文字,但收录却非常好,而有一些网站,用JS、CSS、html代码把网站修饰的非常漂亮,但是发布的文章却不收录,这让我开始觉得代码与原创度有直接关系。1 }# |6 {) T% z
8 h/ M+ J6 e: t& x& G7 L9 P$ ]. z在哪里看到过这样的一句话“搜索引擎只能识别200KB以内的内容”,对于一个网站而言,200KB算是很大了,我的博客只有30KB左右,所以我博客在搜索引擎中抓取是完全没有压力,如果你的网站有超过200KB,我觉得你是应该要优化了。
* A: g5 |9 G8 _# p
6 `: U7 \0 q/ k9 h/ Q& g! k. Y这和网站的文件大小有什么关系呢?好,我们来看看,搜索引擎在抓取一个页面的流程是从头到底,任何一个页面都有一个共同点,那就是头部一样、底部一样,唯一不一样的就是文章内容,那么搜索引擎在抓取头部有10KB左右是一模一样的,到中部文字的时候只有2KB是不一样的,而底部又有10KB是一模一样的,那么还会认为这是原创文章吗?
% `$ Z6 m3 O: \/ X9 V! y2 R3 M; r" a9 I
这里还得给大家灌输一个理念,那就是搜索引擎是不认识字的,他只有把这个汉字放到他的数据库去对比,当一对比一个新文章页面的时候,总共22KB的页面,居然有20KB一模一样,就算是写了原创文章,也会被列入到伪原创的列表中去。9 l" J, Q7 @6 I% f) E" M
4 a9 i1 k T- I) N2 |" \经过我3年的SEO优化加测试,我对原创文章的判断得出了这样的一个理论,当一个页面比较大的时候,一个页面的不同点至少占页面的1/3,那么写多少文字呢,比如你页面有10KB,那么至少的写3KB的文字,剩下的7KB相同,这些才不容易被列入到伪原创的列表中。当然,这是我个人得出的理论,并没有完全的证据和理论来证明。$ Z/ Y7 w# j% [6 M- b, z
/ c2 O& T2 |3 w W为什么抄袭者的网站更容易收录?
& G' M- u3 t3 [2 p- R
9 y2 z C1 H' e# `3 W) q那么还有一个问题来了,既然要抓取、识别、释放这么复杂的流程,为何抄袭我们网站的内容还先收录呢,这是大家很纠结的这个问题,我也纠结了很久,直到有一天,我自己做了一个平台,每天让自媒体人发布非常原创内容的时候,我才总结出来,为何越抄袭越容易收录!$ B# {5 j1 U- e: c
9 \4 r. n$ h1 u* ~1 M在谈论抄袭者网站为何会收录块的时候,我觉得咱们先要搞清楚新闻内容是收录流程,新闻内容相对普通的内容收录较快,因为新闻内容具有时效性,所以必须当场发当场收录,然后释放出来,不然拖到第二天在收录的话,这个新闻可能不热了,关注的人也就少了,百度从而失去了这个体验。
6 G, `3 U; a+ F% P' n- @0 @; `5 c9 F7 f& r# x5 n
而抄袭者的网站与新闻内容类似,通常抄袭者的网站是抄袭过多篇文章,其中有直接抄袭原创者,也就抄袭二手文章,抄来抄去,互联网同样的文章就非常多了,当一篇文章被互联网多次抄袭,这就意味着这篇文章比较热门,不热门怎么会这么多人抄袭呢?最终就出现了一个热点效应,收录的门槛也就降低了。所以就出现了抄袭者抄袭了你的文章,比你还先收录。
6 V' Y- I& o D J; Q! t( k' x" z. Q' P) @* Z/ [2 o" j
防止抄袭最好的办法5 [; r `2 w/ J+ f
什么禁止右键、禁止复制这些方法都弱爆了,对方要抄袭、要采集,你这么点技术禁止,对他来说是完全没有作用,况且人家采集是直接从代码中采集,并非实际来到了你的网站,而且还会让你的读者觉得你网站体验就严重问题,所以我非常不建议使用这些方法来禁止抄袭者,我也是这方面的过来人,现在我是用这些方法来对策的。
8 [+ N* a' y& ?$ C" D' T& {% N当我今天把文章写出来后,不管是否收录明天将会把文章通过投稿的形式发布出去,通过投稿的形式,对方会完全的尊重并且保留你的版权,即使没有留下链接版权,至少也会留下品牌词的版权。1 V N" _. d( r, m7 W1 _! I: O
投稿成功以后,当抄袭者在此抄袭这篇文章的时候,互联网已经有很多此文章了,第一他会觉得互联网文章太多,不会再次抄袭了,因为他想抄原创文章,第二就算他抄袭了,互联网你投了这么多文章,最终公认的版权是你的,并且多个页面有URL直接指向你的页面,这也是给你这篇文章做了一个最好的外链。5 C4 ^' F2 q* @8 I& x
总结:其实对于抄袭者并不是很可怕,对我们来说,应该是一件好事情,当他们抄习惯了,自然会帮我们做到推广的作用。$ z- Q3 ?- q0 n1 g
. C9 P" r6 T: g |