我的SEO心得与体会
1.Alexa排名,主要是看网站的pv,而不是ip。有的网站ip很少,pv很高,所以Alexa排名好。
2.某些网站上推荐另外制作一个纯文本的Sitemap.txt,本站认为是画蛇添足,制作好Sitemap.xml就足够了。
3.第三行Disallow:/bbs/viewtopic.php,Disallow中文是不允许的意思。为什么要写这一行呢?因为我们SEO论坛的URL做了伪静态处理,论坛帖子的URL地址本来是/bbs/viewtopic.php?topics=*,加上这条规则后,就算网站里面伪静态没完全处理好,出现了以前的URL,这个规则也能屏蔽掉那些URL,防止网页权重被分散。
4.后面几行规则存在的理由和第三行差不多,然后我们看第11行,Disallow:/bbs/member这一行,为什么要把/bbs/member下面的内容都屏蔽了呢,/bbs/member下面都是论坛注册用户的信息,将它屏蔽,一个是原因是保护用户隐私,[另一个原因是防止这些用户信息页面把论坛的整体权重降低了,因为它们里面的内容并不重要,不重要的内容就不要去网上成为垃圾信息了]。
5.然后我们看倒数第二行Disallow:/bbs/faq.php,这行有什么作用呢?这个目录里面的内容是论坛的使用说明,只要安装这个论坛程序,就会附带这些说明性的网页,这些说明信息网上已经很多很多了,我们将它屏蔽掉后,将有价值的原创内容展现在蜘蛛面前,这样我们的网站才会受到搜索引擎蜘蛛的喜爱。
6.为什么我们第二行声明了蜘蛛能抓取整个网站目录,后面又声明了URL里面包含这些字符串的网页不能抓取,蜘蛛到底遵守哪条规则呢?这个是按照规则的详细程度来确定的,规则越详细,优先级越高,我们添加robots规则的时候注意下就好了。
7.请不要忽视robots.txt文件,合理的使用robots.txt文件,能很好的控制网站权重,PR值的流向,减少垃圾信息的收录,将有价值的信息展现给搜索引擎。尤其是对那些使用整站并且带数据程序的朋友,不妨将原来的数据先用robots.txt规则屏蔽起来,等网站权重高了,再慢慢将那些垃圾信息放出来(能永远都不放出来是最好)。
8.如果网页文字内容很少,关键词放好之后我们建议使用关键词密度工具查查,还没有被收录的网页,我们建议关键词密度不要超过8%,否则很难被收录。
9.关键词连续出现不要超过三次,比如标题写成,SEO培训_免费SEO培训_SEO培训网站,这样是有点过头的,一个地方,同一关键词最多出现两次为好。
10.看很多新手优化网站都是把图片里所有的img标签的alt属性都填上同一个词,有的网页有几十个图片的,居然填了十几次同一个关键词,这是严重的搜索引擎Spam行为。SEO高手建议我们将网页里面的alt属性都写上关键词,不是建议我们都写同一个关键词。