网站的优化工作应该是目前很多企业所关注的一项工作,同时,因为大多数是传统的框架型网站,对于seo优化的难度还是挺大的.在此,我们将向大家解释为何使用框架的网页无法被使用网络蜘蛛(spiders)或网络爬虫(crawlers) 的主要搜索引擎(如Google)正确索引的主要原因.
- O0 I$ X- Y5 q/ {- [5 \ z8 ]' K3 g4 z" c# u* W8 N; y
在一个框架网页的后台代码中,我们一般能够看到的是网页的标题标记(Meta Title)、描述标记(Meta Description)、关键字标记(Meta Keywords)及其它原标记(Meta Tags),同时你还会看到复制必带一个框架集标记(Frameset Tag).
. P. @. G' p: {: _2 r4 q
/ x1 J$ q" ?6 l5 @) o 框架中的内容在后台代码中是无法被体现的,而对于那些主要搜索引擎的搜索程序来说,如Google的GoogleBot和Freshbot,其设计思路都是完全忽略某些HTML代码,转而直接锁定网页上的实际内容进行索引.
" i9 J0 ~2 \5 J6 R( A! R
7 x: [" ~8 l- ?) a 这样一来,网络蜘蛛在那些一般性的框架网页上根本找不到要搜索的内容.这是由于那些具体内容都被放到我们称之为"内部网页"中去了.
! _0 @( \0 B, j; L: W. l4 u) S/ h+ \2 O0 @% d
现在大家都清楚了,无论对于任何网站及任何页面,真实的页面内容才是达到成功优化的一个重要因素.因此很显然,一个使用框架的网站是几乎不可能在搜索引擎中取得较好的页面等级的.
' s; |: { G9 [6 E! t+ k
) o2 t6 r3 y4 a! H+ M+ {& W 现今的搜索引擎期待的只有一件事情,那就是网站的内容.这里的内容指无格式或文本格式的内容,也就是网页上所写的词和短语.3 g4 @2 \% o( h: m
|