您当前的位置: 首页 > 网站运营 > 搜索优化 > 我的SEO心得与体会

我的SEO心得与体会

作者:不详 来源:网络 发布时间: 2010-04-08 22:32 点击:
1.Alexa排名,主要是看网站的pv,而不是ip。有的网站ip很少,pv很高,所以Alexa排名好。 2.某些网站上推荐另外制作一个纯文本的Sitemap.txt,本站认为是画蛇添足,制作好Sitemap.xml就足够了。 3.第三行Disallow:/bbs/viewtopic.php,Disallow中文是不允许的意思。为什

我的SEO心得与体会

  1.Alexa排名,主要是看网站的pv,而不是ip。有的网站ip很少,pv很高,所以Alexa排名好。
  
  2.某些网站上推荐另外制作一个纯文本的Sitemap.txt,本站认为是画蛇添足,制作好Sitemap.xml就足够了。
  
  3.第三行Disallow:/bbs/viewtopic.php,Disallow中文是不允许的意思。为什么要写这一行呢?因为我们SEO论坛的URL做了伪静态处理,论坛帖子的URL地址本来是/bbs/viewtopic.php?topics=*,加上这条规则后,就算网站里面伪静态没完全处理好,出现了以前的URL,这个规则也能屏蔽掉那些URL,防止网页权重被分散。
  
  4.后面几行规则存在的理由和第三行差不多,然后我们看第11行,Disallow:/bbs/member这一行,为什么要把/bbs/member下面的内容都屏蔽了呢,/bbs/member下面都是论坛注册用户的信息,将它屏蔽,一个是原因是保护用户隐私,[另一个原因是防止这些用户信息页面把论坛的整体权重降低了,因为它们里面的内容并不重要,不重要的内容就不要去网上成为垃圾信息了]。
  
  5.然后我们看倒数第二行Disallow:/bbs/faq.php,这行有什么作用呢?这个目录里面的内容是论坛的使用说明,只要安装这个论坛程序,就会附带这些说明性的网页,这些说明信息网上已经很多很多了,我们将它屏蔽掉后,将有价值的原创内容展现在蜘蛛面前,这样我们的网站才会受到搜索引擎蜘蛛的喜爱。
  
  6.为什么我们第二行声明了蜘蛛能抓取整个网站目录,后面又声明了URL里面包含这些字符串的网页不能抓取,蜘蛛到底遵守哪条规则呢?这个是按照规则的详细程度来确定的,规则越详细,优先级越高,我们添加robots规则的时候注意下就好了。
  
  7.请不要忽视robots.txt文件,合理的使用robots.txt文件,能很好的控制网站权重,PR值的流向,减少垃圾信息的收录,将有价值的信息展现给搜索引擎。尤其是对那些使用整站并且带数据程序的朋友,不妨将原来的数据先用robots.txt规则屏蔽起来,等网站权重高了,再慢慢将那些垃圾信息放出来(能永远都不放出来是最好)。
  
  8.如果网页文字内容很少,关键词放好之后我们建议使用关键词密度工具查查,还没有被收录的网页,我们建议关键词密度不要超过8%,否则很难被收录。
  
  9.关键词连续出现不要超过三次,比如标题写成,SEO培训_免费SEO培训_SEO培训网站,这样是有点过头的,一个地方,同一关键词最多出现两次为好。
  
  10.看很多新手优化网站都是把图片里所有的img标签的alt属性都填上同一个词,有的网页有几十个图片的,居然填了十几次同一个关键词,这是严重的搜索引擎Spam行为。SEO高手建议我们将网页里面的alt属性都写上关键词,不是建议我们都写同一个关键词。

分享到:
本文"我的SEO心得与体会"由远航站长收集整理而来,仅供大家学习与参考使用。更多网站制作教程尽在远航站长站。
顶一下
(1)
100%
踩一下
(0)
0%
[点击 次] [返回上一页] [打印]
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 密码: 验证码:
关于本站 - 联系我们 - 网站声明 - 友情连接- 网站地图 - 站点地图 - 返回顶部
Copyright © 2007-2013 www.yhzhan.com(远航站长). All Rights Reserved .
远航站长:为中小站长提供最佳的学习与交流平台,提供网页制作与网站编程等各类网站制作教程.
官方QQ:445490277 网站群:26680406 网站备案号:豫ICP备07500620号-4