加入收藏 | 设为首页 | 会员中心 | 我要投稿 烟台站长网 (https://www.0535zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 搜索优化 > 正文

robots文件的代码意思是啥

发布时间:2022-05-30 13:29:42 所属栏目:搜索优化 来源:互联网
导读:网站上线之前,优化师都会认真的检查一遍有没有遗漏的地方,其中一项就是robots文件的添加,robots文件的作用是告诉搜索引擎蜘蛛,这个网站上什么内容是可以抓取的,哪些内容是禁止抓取的。但是里面代码一堆,哪些是可以抓取,哪些是禁止呢?一起来了解下吧~
  网站上线之前,优化师都会认真的检查一遍有没有遗漏的地方,其中一项就是robots文件的添加,robots文件的作用是告诉搜索引擎蜘蛛,这个网站上什么内容是可以抓取的,哪些内容是禁止抓取的。但是里面代码一堆,哪些是可以抓取,哪些是禁止呢?一起来了解下吧~
 
  User-agent禁止访问抓取系列:
 
  User-agent: *
 
  这里的*好是通配符,意指所有的搜索引擎都可以抓取,包括百度、搜狗、360等等
 
  Disallow: /
 
  意思是禁止蜘蛛抓取该网站的任何目录
 
  Disallow:/123
 
  意思是禁止蜘蛛抓取该网站的123以及123层级之下的所有内容
 
  Disallow:/123/
 
  意思是禁止蜘蛛抓取123层级之下的所有内容,但是可以抓取123页面的内容
 
  Disallow:/*.png
 
  意思是禁止蜘蛛抓取网站上所有png格式的图片,想要禁止抓取其它格式也是这样书写,比如想要禁止抓取网站jpg格式的图片,书写方式为Disallow:/*.jpg
 
  Disallow:/123/*.png
 
  禁止蜘蛛访问123层次下的png图片,其他格式也是同样的书写方式
 
  Disallow:/*?*
 
  禁止蜘蛛抓取网站上所有的动态url页面
 
  Disallow:/123/*?*
 
  禁止蜘蛛抓取网站上123目录下的所有动态页面,不影响抓取网站123目录中的其它内容
 
  Allow允许抓取访问系列:
 
  Allow的意思是允许蜘蛛访问抓取的意思,在写robots文件的时候一定要注意一件事,就是在书写的时候,一定要将allow放在disallow前面,才能不受disallow的影响,其它的写法参考disallow的书写方式,这里就不凑字数了。
 
  有一点注意事项,大家在使用的时候一定要注意,robots.txt文件名称一定要小写的,不要大写。有了完整的robots文件,搜索引擎在抓取的时候才会更加的方便,利于对网站的提升。

(编辑:烟台站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!