搜索引擎抓取信息致命的六点因素 不指定

元创 , 2009/09/16 14:13 , SEO策略 , 评论(0) , 阅读(2663) , Via 本站原创 | |
搜索引擎抓取信息致命的六点因素
原因一:站点的robots.txt文件已损坏或者在书写的时候出现错误(例如出现错别字)

原因二 :网站导航
  大多数搜索引擎的机器人不能解析Java 或DHTML 菜单,当然Flash以及Ajax 菜单效果更差。
  如果搜索引擎机器人错误的理解了您的robots.txt文件,它们可能会完全无视你的网页。对于这个问题,解决的办法是仔细检查您的robots.txt文件,并确保您网页上的的参数是正确的。
原因三:网站在没有建设好的情况下就上线了
这个很容易被忽视的,在您的网站上线之前,哪怕去掉那些没用的死链,也不能因为“好看”而保留着。

原因四:在您的网址中使用了会话ID
许多搜索引擎不去收录那些包含会话ID的网页,因为它们可导致内容的重复。如果可能的话,避免会话ID出现在您的网址,而使用Session存储会话ID.

原因五:网址中包含太多的变数网址
  中包含太多的变数可能会造成搜索引擎机器人搜索困难。如果您的URL 包含变数太多,搜索引擎漫游器可能会忽视您的网页。对于这个问题一些比较熟悉网站建设的人可能会想到动态网页,的确就是这个问题,动态生成的网页(括ASP、PHP)可能导致抓取工具无法收录,解决办法,使用静态页面。
  
原因六:您的网页中包含太多的代码
  网页中包含了Java代码、CSS的代码以及其他脚本代码。这些代码与内容没有直接的联系,访问您网页并选择“查看源文件”或“查看HTML 源”,如果您很难对网站上的实际内容进行更改,那么通常情况下搜索引擎收录起来也很困难。
SEO公司  在职博士
发表评论

昵称

网址

电邮

打开HTML 打开UBB 打开表情 隐藏 记住我 [登入] [注册]