您当前的位置: 首页 > 网站运营 > 搜索优化 > 如何使用robots.txt Seo优化需要知道的

如何使用robots.txt Seo优化需要知道的

作者:不详 来源:网络 发布时间: 2011-11-04 21:15 点击:
robots.txt文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的robots.txt文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt是一个简单有效的工具。这里简单介绍一下

如何使用robots.txt Seo优化需要知道的

  robots.txt文件对抓取网络的搜索引擎漫游器(称为漫游器)进行限制。这些漫游器是自动的,在它们访问网页前会查看是否存在限制其访问特定网页的robots.txt文件。如果你想保护网站上的某些内容不被搜索引擎收入的话,robots.txt是一个简单有效的工具。这里简单介绍一下怎么使用它。
  
  如何放置Robots.txt文件
  
  robots.txt自身是一个文本文件。它必须位于域名的根目录中并被命名为"robots.txt"。位于子目录中的robots.txt文件无效,因为漫游器只在域名的根目录中查找此文件。例如,http://www.example.com/robots.txt是有效位置,http://www.example.com/mysite/robots.txt则不是。
  
  这里举一个robots.txt的例子:
  
  User-agent:*Disallow:/cgi-bin/Disallow:/tmp/Disallow:/~name/
  
  使用robots.txt文件拦截或删除整个网站
  
  要从搜索引擎中删除您的网站,并防止所有漫游器在以后抓取您的网站,请将以下robots.txt文件放入您服务器的根目录:
  
  User-agent:*Disallow:/
  
  要只从Google中删除您的网站,并只是防止Googlebot<>将来抓取您的网站,请将以下robots.txt文件放入您服务器的根目录:
  
  User-agent:GooglebotDisallow:/
  
  每个端口都应有自己的robots.txt文件。尤其是您通过http和https托管内容的时候,<QQ伤感个性签名>这些协议都需要有各自的robots.txt文件。例如,要让Googlebot只为所有的http网页而不为https网页编制索引,应使用下面的robots.txt文件。
  
  对于http协议(http://yourserver.com/robots.txt):
  
  User-agent:*Allow:/
  
  对于https协议(https://yourserver.com/robots.txt):
  
  User-agent:*Disallow:/
  
  允许所有的漫游器访问您的网页
  
  User-agent:*Disallow:
  
  (另一种方法:建立一个空的"/robots.txt"文件,或者不使用robot.txt。)
  
  使用robots.txt文件拦截或删除网页
  
  您可以使用robots.txt文件来阻止Googlebot抓取您网站上的网页。例如,如果您正在手动创建robots.txt文件以阻止Googlebot抓取某一特定目录下(例如,private)的所有网页,可使用以下robots.txt条目:
  
  User-agent:GooglebotDisallow:/private
  
  要阻止Googlebot抓取特定文件类型(例如,.gif)的所有文件,可使用以下robots.txt条目:
  
  User-agent:GooglebotDisallow:/*.gif$
  
  要阻止Googlebot抓取所有包含?的网址(具体地说,这种网址以您的域名开头,后接任意字符串,然后是问号,而后又是任意字符串),可使用以下条目:
  
  User-agent:GooglebotDisallow:/*?
  
  尽管我们不抓取被robots.txt拦截的网页内容或为其编制索引,但如果我们在网络上的其他网页中发现这些内容,我们仍然会抓取其网址并编制索引。因此,网页网址及其他公开的信息,例如指向该网站的链接中的定位文字,有可能会出现在Google搜索结果中。不过,您网页上的内容不会被抓取、编制索引和显示。
  
  作为网站管理员工具的一部分,Google提供了robots.txt分析工具。它可以按照Googlebot读取robots.txt文件的相同方式读取该文件,并且可为Google user-agents(如Googlebot)提供结果。我们强烈建议您使用它。在创建一个robots.txt文件之前,有必要考虑一下哪些内容可以被用户搜得到,而哪些则不应该被搜得到。这样的话,通过合理地使用robots.txt,搜索引擎在把用户带到您网站的同时,又能保证隐私信息不被收录。

分享到:
本文"如何使用robots.txt Seo优化需要知道的"由远航站长收集整理而来,仅供大家学习与参考使用。更多网站制作教程尽在远航站长站。
顶一下
(0)
0%
踩一下
(0)
0%
[点击 次] [返回上一页] [打印]
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 密码: 验证码:
关于本站 - 联系我们 - 网站声明 - 友情连接- 网站地图 - 站点地图 - 返回顶部
Copyright © 2007-2013 www.yhzhan.com(远航站长). All Rights Reserved .
远航站长:为中小站长提供最佳的学习与交流平台,提供网页制作与网站编程等各类网站制作教程.
官方QQ:445490277 网站群:26680406 网站备案号:豫ICP备07500620号-4