网页中出现大量的JavaScript会给搜索引擎爬行增加难度。其主要影响有以下几点:+ g) m+ T/ c1 T7 ?1 |9 O+ f7 ]5 n$ y
6 v2 X' W3 d& v- J! x 1.干扰搜索蜘蛛对内容分析
* l. c, D0 w: ~1 b9 f! p1 V t5 `
4 n/ ?) M8 z3 v R+ h# ? 2.无形中降低了关键字密度
% E1 F* ^1 p/ B % |0 c: ], U, o/ {; X" V' n- k
3.影响网页权重的分布& O0 D+ [$ S; |6 {. P Y
/ ^& u/ Q5 v* X7 j$ Y: M
那么如何有效的避免这样的问题,JavaScript在网页设计过程中必须使用到,对于这个问题的解决我们只能有效的避免而不能完全避免。主要从以下几个方面去避免这些问题:* J% e0 ^$ k5 t( Z$ ?2 {2 p1 ?- X
2 |+ Q. M) ^+ K
1.导航中尽量不要使用JavaScript下拉式菜单,这个问题我已经在很多文章中提及过了,导航不要为了好看而使用JavaScript特效或Flash完成,那样对SEO极为不利。7 C% C, n, ~+ T& P
# g2 |' {7 c4 f
2.文章内容部分的链接尽量不要使用JavaScript来展现,特别是有些网站对链接的制作使用JavaScript产生DIV效果,这样对SEO没有实质性的好处,应尽量贴近标准链接。如果真的必须要使用,可以参考页面重写来实现效果,蜘蛛是一个特殊的浏览器,所以你还是要注意自己网站的HTML源码。: C/ E- X' Z }$ F
! u; ]+ w" [/ C2 Q6 \+ ^# w4 y 3.尽可能的将多个js写入一个js文件提高页面加载速度。不管是处于用户体验还是蜘蛛浏览,网页的加载速度提高对SEO都是有好处的,用WP创建BLOG的时候就深刻的体会到了,加载一个合并的JS比加载2个以上JS的速度会大大提高。
+ s! v4 `7 o( K& c, [& t6 g
. O( C# B' |. X* B; O' L 4.尽量将JS置于页面代码的底部。JS的解析需要调用多个组建去完成,放于底部不仅能加快网页加载速度,还能有效规避蜘蛛对JavaScript代码的大量分析。
6 f! ^& M& ]1 F' U# o2 O9 e! v
( z" y. N; {% b 在两大搜索引擎阵营中,大量实践证明百度对JavaScript的处理很不理想而Google的处理要好一些。对JS的测试,Google做的比百度要好些,但是在搜索引擎技术没有完全适应JS之前,网站内容还是要尽量少使用JS.9 V/ o x& B$ t' G+ I) {0 \
|