|
|
下面我给出网站内容质量方面的建议
+ P$ h0 n v- G3 B" C
" B+ c8 d Q2 f& z# G# r* T9 d# Q 1.记住:搜索引擎永远站在用户这一边,用户永远是上帝。1 s* l4 q) ~7 l& D; o
2 |* X3 J* ~3 U+ c3 a) @- ~* X3 p
这是由搜索引擎的特殊身份决定的,因为搜索引擎也具有商业价值,一个对用户没有任何帮助的搜索引擎,用户不会再去利用它,会将它彻底的抛弃,所以说,任何一个搜索网站的内容应该是面向用户的,对用户友好的,只有网站对用户友好了,才能留住用户,搜索引擎才会毫无保留的将最有价值的一面展现在用户面前。很简单的道理,如果我们在百度上搜索一个词的时候,百度提供给我们的全部是垃圾网站信息,并不能找到我们所需要的信息内容,那么很快,就会有其他的搜索引擎来代替百度,所以,蜘蛛程序必须将最好的最有价值的网站呈现给用户。/ Z- h/ e6 T3 O9 \) f
% `, |- t' l4 E9 h; D; w5 y8 x) b
2.百度及其他搜索引擎最喜欢的是原创内容。7 N; `( x5 j+ t1 t: j& w
, E( a) p1 y& K, o S) d 请相信一点:如果具有大量重复无价值内容,如果站点内容只是从各处采集复制而成,绝对不会被百度收录。所以,我们尽可能的进行原创,如果自己实在写不出东西来,也可以进行高质量的伪原创。
1 Q' y+ w( U) R7 C* s
4 P. x0 [6 C3 g, P' L- f 3.谨慎设置导出链接。: `* m$ F5 Q D5 u; z1 }3 s
$ z+ a2 l9 n R6 V# l. M 导出链接越多,你网站的权重越低,你链他的网站,相当于是你给那个网站投了一票,那么你手里的票就减少了,搜索引擎就是采用的是一种投票机制。但如果是交换得来的友情链接,那么请和那些权重高的网站做链接,如果网站上的友情链接多是指向一些垃圾站点,那么站点可能会受到一些负面影响。
0 }: r) h* }$ b& P! @4 U& z7 t) S2 |9 v l
4.充分利用robots.txt
8 Z9 v/ h% @3 A$ ]1 U
! L9 i/ Y5 B1 K. Y* @: X0 y robots.txt是搜索引擎中仿问网站时候要查看的第一个文件,Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。Robots.txt文件告诉当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。: S9 I. {, h0 u6 N& d( h
# A3 \+ B. j$ G4 U) K7 A
百度会尽量收录提供不同信息的网页,搜索引擎喜欢新东西,如果网站上相同的内容可以通过不同形式展现,如论坛的简版页面、打印页,则可以使用Robots.txt(这个文件告诉搜索引擎蜘蛛程序在服务器上什么文件是可以查看的)禁止Spider(搜索引擎蜘蛛)抓取不想向用户展现的内容这也有助于节省带宽。
. `5 s% n* C/ c1 r& D, r
% t# [: w, q c$ l/ e) u+ w |
|