robots.txt协议是什么?

  • 3
  • 1,785 views
  • A+
所属分类:SEO十万个为什么

robots是什么意思

robots在英语之中的意思是机器人,Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议的本质是网站和搜索引擎爬虫的沟通方式,用来指导搜索引擎更好地抓取网站内容,而不是作为搜索引擎之间互相限制和不正当竞争的工具。

什么是robots.txt?

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

如果将网站视为酒店里的一个房间,robots.txt就是主人在房间门口悬挂的“请勿打扰”或“欢迎打扫”的提示牌。这个文件告诉来访的搜索引擎哪些房间可以进入和参观,哪些房间因为存放贵重物品,或可能涉及住户及访客的隐私而不对搜索引擎开放。但robots.txt不是命令,也不是防火墙,如同守门人无法阻止窃贼等恶意闯入者。

在网站建设过程中我们会有一部分内容不希望被搜索引擎抓取到或者不希望其在互联网中出现,那么要怎么办呢?我要怎么跟搜索引擎说你不要抓取我的xx内容呢?这时候robots就派上用场了。

Robots.txt是存放于网站根目录下用于规定搜索引擎对网站内容抓取范围的文本文件,就这么一句话可以解释robots.txt是什么,但是我们需要注意的几点:

1.robots.txt必须存放在网站的根目录下。

2.其命名必须为robots.txt

3.Robots.txt是搜索引擎访问网站的第一个页面

4.Robots.txt中必须指明user-agent

以上是关于什么是robots的说明.

weinxin
虎纠自媒体官方微信
这是我的微信扫一扫
f9seo

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:3   其中:访客  3   博主  0

    • avatar k990461 4

      robots 协议怎么设置能做到全站闭屏

      • avatar f9seo 6

        网站Robots.txt文件,是网站与搜索引擎交流的通用协议,通过Robots协议的设置告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取:一方面可以做网站安全的防护,更重要的是用来做优化,减少无效页面的收录,提升站点的排名效果。

        • avatar feixiang 2

          robots.txt协议,怎么设置?
          robots.txt文件的格式
          User-agent: 定义搜索引擎的类型
          Disallow: 定义禁止搜索引擎收录的地址
          Allow: 定义允许搜索引擎收录的地址
          我们常用的搜索引擎类型有:
          google蜘蛛:googlebot
          百度蜘蛛:baiduspider
          yahoo蜘蛛:slurp
          alexa蜘蛛:ia_archiver
          msn蜘蛛:msnbot
          altavista蜘蛛:scooter
          lycos蜘蛛:lycos_spider_(t-rex)
          alltheweb蜘蛛:fast-webcrawler
          inktomi蜘蛛: slurp
          robots.txt文件的写法
          User-agent: *    这里的*代表的所有的搜索引擎种类,*是一个通配符
          Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
          Disallow: /require/   这里定义是禁止爬寻require目录下面的目录
          Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
          Disallow: /ABC 这里定义是禁止爬寻ABC整个目录
          Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。
          Disallow: /*?* 禁止访问网站中所有的动态页面
          Disallow: .jpg$ 禁止抓取网页所有的.jpg格式的图片
          Disallow:/ab/adc.html 禁止爬去ab文件夹下面的adc.html所有文件
          User-agent: *   这里的*代表的所有的搜索引擎种类,*是一个通配符
          Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录
          Allow: /tmp 这里定义是允许爬寻tmp的整个目录
          Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
          Allow: .gif$ 允许抓取网页和gif格式图片
          robots.txt文件用法举例
          例1. 禁止所有搜索引擎访问网站的任何部分

          User-agent: *
          Disallow: /

          实例分析:淘宝网的 Robots.txt文件
          User-agent: Baiduspider
          Disallow: /
          很显然淘宝不允许百度的机器人访问其网站下其所有的目录。
          例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt” file)
          User-agent: *
          Disallow:
          例3. 禁止某个搜索引擎的访问
          User-agent: BadBot
          Disallow: /
          例4. 允许某个搜索引擎的访问
          User-agent: baiduspider
          Disallow: User-agent: *Disallow: /