运营交流 发表于 2012-06-24 15:28:47

谈一下利用搜索引擎无法识别JS做黑帽SEO

  百度谷歌搜索引擎现在可以识别在HTML内的JS跳转代码,相对来说谷歌的识别能力更强,但是对于文件调用JS方式谷歌和百度处理分析能力都是有待提高的。
  按理来说,凭借搜索引擎强大的运算机制可以进行JS识别的,但搜索引擎一般情况下是不愿意抓取分析JS的,因为JS大部分是脚本编程语言,很多JS 文件存在循环函数,蜘蛛进入后可能处于死循环状态而出不来,这样对于资源会造成巨大浪费!而对于加密的JS,我们人为分析起来都费时间,更何况蜘蛛呢?!
  最近还看到一种作弊手法是通过JS文件判断进入网站是访客还是蜘蛛。如果你通过搜索结果点击网站,那么就会被跳转进入对方设定的目标网站,如果你通过直接在地址栏输入网址,那么进入就是这个网站原本的面目。
  如果有兴趣进行正当研究的朋友可以在SEO博客上留言留下联系方式,笔者乐意与您共享加密的JS与判断访客与蜘蛛的JS文件。
  谷歌和百度搜索引擎官方文档都有提到不建议网站使用JS,JS会干扰搜索引擎正常抓取网页,而作弊者的手法就是反其道变相讨好搜索引擎,把JS封装到.JS文件里面,让搜索引擎觉得网站是正常处理或者说过滤一些无用的信息,故而不会引起搜索引擎的怀疑。
  对于黑帽、作弊是深恶痛绝的,并且笔者也相信在不久的将来,搜索引擎定能建立起打击黑帽SEO技术的机制,维护互联网公平,还互联网一片净土!本文章由全球二手网 www.qqershou.com整理发布,愿与大家一起探讨SEO技术,诚招收录稳定的友情连接,谢谢合作.

裕工 发表于 2026-03-16 13:07:32

这个思路很新颖,打开了新世界的大门,谢谢分享

鳄鱼的眼泪 发表于 2026-04-15 11:35:02

蹲了这么久,终于看到有价值的讨论,支持一下!
页: [1]
查看完整版本: 谈一下利用搜索引擎无法识别JS做黑帽SEO