百度如何面对很难处理的重复页面,比如列表页有分页,文章页也有分页,他们的meta都是相同的,这样会不会当重复页面处理。尤其是独立博客程序,在使用了自动生成的TITLE SEO插件后,列表页重复的相当严重?
7 \& L% {. F# g4 H ,判定页面重复的算法很复杂。可以肯定的是,仅meta相同,是不会被判为重复的。2,相同两个帖子被收录(URL可能不同),低权重的页面会不被建索引,或者被高权重页面类聚掉。1 H0 ^( f5 Q4 K$ f" ~7 G: K
. S$ I# A. C' t! p2 [
原创内容不能被百度识别怎么办?$ o2 M# R0 n; v/ V7 p
4 A# R1 e$ B- Q8 y s( E4 ?9 `
我的站每天都更新原创内容,而百度每天也都更新,但是其他人的转载被收录了以后,我的文章就搜索不到了。我坚持了近4个月的 原创,但百度仍然把我扔到了500多位!
6 D! T2 E# S r* j. V9 X' b) T
0 d% O7 U* m" I: A. d 这个,只能说百度的策略还不是很完善,我们也一直在改进。另外,从用户体验角度,有些转载未必比原创差。比方一篇科技原创博文,被知名门户网站的科技频道转载。如果这种转载保留原创者姓名和出处链接,实际上对原创者是有利的,因为起到了更好的传播效果。只是国内的转载,很多是掐头去尾,使原创者比较受伤。
; S S& K* {( p8 Z5 R3 Q- G$ @% W1 ?1 A+ w8 `
网页大小与搜索引擎抓取的关系?
% S* N: d+ z" s0 k6 q
1 H' J+ Y8 l! A6 C( h& z 以前百度显示网页体积的时候最大是125K,超过这个范围快照显示就不正常,页面大小和搜索引擎的抓取之间没有直接关系。百度建议网页(包括代码在内)不要过大,过大的网页会有抓取截断;而内容部分,也不要过大,过大会被索引截断。当然,抓取截断的上限,会远大于索引截断的上限。
* t7 ~& G$ P2 `4 R- o" u. N2 W8 u8 w. v$ v M; J- l) K; W9 ~
加速对百度排名有影响吗?+ P8 c5 G3 i8 t" A, a4 K
9 l# h" B# t( ~* M4 R; ?1 F( o 几乎所有的大型网站都在用CDN,看看他们在搜索引擎中的表现就可以知道不会任何的负面影响了。但我们建议站长尽量选择技术成熟的CDN服务商,某些CDN服务商会导致网站在某些地区访问不稳定,可能会影响Baiduspider的抓取。
/ j) `1 e; p7 y% T2 r) _7 Y+ h# L5 f; ]" C4 T1 h
网站排名为什么会剧烈下跌?
; u0 a9 v9 E- F6 v1 L" h' }- D" N. V2 R
为什么有的网站原来在百度的排名很高,突然有一天,排名掉到了几百页都找不到,虽然百度快照还是天天更新,持续了很长很长时间,但是排名就是不回来,这些 站在其他的搜索引擎中排名却都很高,请问这是百度的什么机制,属于一种惩罚吗?那请问这种情况下的网站,还有可能再恢复排名吗?$ n; Z1 Z2 z3 b* b/ S. O4 J- W
G( m. o+ l6 i 这个关键词以及对应的资源,以及相应的排序,对用户而言,是否是有价值的?如果是,那么这种波动是有问题的;如果否,那么就是正常的。本文由南京家装拆除公司提供 www.njylcc.com 转载请注明
( \! E% y1 W# H7 z9 M/ n |