|
|
网站的收录速度,谁都拿捏不好,有人说是外链太少,也有人说是采集、伪原创所为。事实上,一个高质量的网站,纵然仅有百条外链,那么也会酒香不怕巷子深的将蜘蛛吸引到家。在这里我们便着重谈一谈,页面质量在搜索引擎优化中的影响。7 X6 ^2 F7 B( J: J6 n0 T! k- ^5 z
( `9 a8 K" |6 m$ Q
一:重复页面降低页面权重
' U2 c# q: a6 c0 I d5 z2 V9 r* L3 X7 y( U/ G/ L
重复页面有什么样的危害?举个近期客户的案例:有一个客户首页被K了需要恢复首页,本是一项较简单的工作。但仔细以观察网站吓一跳,网站有30%的频道内容雷同、目录不同。如此一来,首页被K掉是轻的,重的被K权重都不稀奇。另外一点,一些程序本身就有动态页、静态页,两个不同的页面,若不做优化,那么搜索引擎便会同时索引进去,最后的结果便是降低了网站与页面权重。但重复的页面,大多网站都无法避免掉,尤其是一些频道目录中的分页更不能屏蔽,那么我们该如何做?笔者建议针对性的对内容进行robots.txt屏蔽。
' j9 P: z! V0 S8 g
8 y+ W& B, R/ _( ~& X 二:重复标题降低收录效率( l6 e4 e" b7 N# G9 m7 u0 V' j
/ d9 q' V- N9 l9 P% f( x3 v
标题的重复,搜索引擎会认为是“雷同作bi”纵然内容或不同,但是也不要这样,因为如此一来会影响搜索引擎对于页面的排名。而这些不少站长常常易忽视掉,如前段时间优化的一个客户站,为了提升关键字的重要性,所有页面标题都是大同小异,最后反而适得其反。二进制建议:首页标题一个完整的标题,其它内容页、频道页没必要完全保留首页标题。* n, O, B6 c# E4 ^6 P. q
- @) f% R* U6 T% V
三:重复泛滥的互联网内容* g) G; h& q/ o6 V) s
3 _0 N, W0 j0 z" V CMS的崛起,给建站带来了无限的便利,但采集器、采集规则这些东西也随着风靡起来。但有利必然存在弊端,大多网站使用采集,最后不是被K站就是被降权。为什么有些站可以靠采集成功了呢?那是因为他们采集了别人没有采集到的东西,但不得不说的是这个时代已经过去了,站长们不要再去贪婪,否则弄再多的站也终归是垃圾站。
7 ~- W _# P! l8 ]9 v* J4 N- E5 {8 w$ l5 h
四:页面与内容的质量
/ j7 m0 G# a8 j! @9 O5 g3 z. t% X: u# @8 S C
搜索引擎不懂一篇文章用了什么样的修辞,不会去评价文章的好坏。但它却知道一个道理:一二百字的文章说不出多少道理,真正有价值的文章大多都是长篇大论。所以一些网站看似页面众多,也没有去采集,但为什么就是得不到友好的收录呢?这个时候不妨去试着提高页面质量。如何提高呢?很简单,为今后添加的内容增加长度,不要草草完事,你认真了,蜘蛛同样会认真的给予你快照和排名。% u8 F* N t/ K' o5 F% J
# V9 q! ^3 H. z 五:内容与页面的相关性+ S$ P9 q/ D1 h+ J1 a# F, e' n
, H7 V5 P, l( t6 Y 页面质量的高低不仅仅表现在内容的原创性和“质量”,同时更要看它是否与网站主题合适。如一篇QQ签名内容当到“站长站”,还会有效的提升网站页面权重吗?相反的更是稀释了网站本来的主题,此类网站一旦偏多,则完全导致主题发展的不明晰,排名的下滑。不过一般来说,明显不对路的网站内容,搜索引擎也未必去收录。
" l& c. {; U1 p$ O- ?# p2 {" ^& D
0 \. G* S+ \5 e! o. a! C& W; H 六:自然语言与机器语言# ]! k0 E+ K' `$ w7 Q1 P9 X
% W! {$ ?' g: K0 p; ~8 z% u
SEO优化的风靡,导致不少站长眼中只有SEO,为了搜索引擎优化不顾一切。什么页面中插入关键字描文本?对转载来的文章进行重新编排伪原创?总总的一切,为的就是骗过搜索引擎的规则,而提升网站的权重。但凡事有个度,用户读起来都不明白什么意思的东西,搜索引擎同样反感。网站优化页面质量深受考核,站长不要仅为优化而优化噢。% ^2 j& i' {1 ^& Y! D J& {
|
|