A5站长网SEO团队 首页 专家专栏 查看内容

谈谈关于Robots.txt的几个要点

2012-11-29 14:50| 发布者: admin| 查看: 799| 评论: 0

摘要:   从事seo优化的工作人员必须要了解Robots.txt ,这是一个合格的seoer必须了解的知识。那么,到底robots有什么需要了解的呢?   首先,作为一名合格的seo工作人员,必须要了解,Robots.txt是一个协议,而不是一个命令 ...

  从事seo优化的工作人员必须要了解Robots.txt ,这是一个合格的seoer必须了解的知识。那么,到底robots有什么需要了解的呢?

  首先,作为一名合格的seo工作人员,必须要了解,Robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的,以及什么文件是不允许被蜘蛛程序抓取的。

  通常情况下,当蜘蛛来到你的网站以后,首先就是要看根目录下是否存在robots.txt这个文件,如果存在,则蜘蛛遵循robots.txt的协议;如果不存在,则蜘蛛会默认爬取网站的所有文件。

  了解了这些,想必大家都了解到robots的重要性了,那么到底robot的写法有哪些要点呢?今天烟台腋臭之家就谈一下自己的一些看法:

  1. robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写.

  2. 常用命令

  User-agent: 定义搜索引擎的类型

  Disallow: 定义禁止搜索引擎收录的地址

  Allow: 定义允许搜索引擎收录的地址

  Sitemap:定义搜索引擎爬取的网站地图的地址

  3. 对于User-agent的写法,有些需要注意的方面

  User-agent: *

  这里的*代表的所有的搜索引擎种类,*是一个通配符。如果要对特定的蜘蛛程序进行限制,则需要改变写法。利于对google蜘蛛添加特定的指令,则需要写成 User-agent: Googlebot ;写成这样的的定义类型,下面再写针对其的特殊协议,如Allow和Disallow等。

  4. Disallow和Allow分别代表禁止抓取和允许抓取,在后边写上相应的地址就可以。如Disallow: /tmp/ ,这样就是要禁止抓取tmp目录了。

  而对于要特别限制针对某种类型文件的写法,则需要了解一下$ 这个符号了。$ 代表的是匹配网址的结束字符,如 /.jpg$ ,这样的形式就是表示后缀名为jpg的所有文件了。这样再加上Disallow和Allow命令就可以限制抓取了。

  5. Sitemap的写法

  Sitemap的写法必须采用绝对地址,即Sitemap:http://www.xx.com/map.xml ;写成这样的形式才能被蜘蛛读取,如果写成相对地址的形式,则会提示语法错误。

  另外,还需要注意的一点,就是Sitemap的网站地图必须要在网站的根目录下才有效。

  6. 目前用Robots.txt来限制搜索引擎蜘蛛抓取站点内容的办法只是一种规则,需要搜索引擎蜘蛛的配合才行,并不是每个蜘蛛都全部遵守Robots.txt的。

  以上6点就是烟台腋臭之家关于Robots.txt的一些看法,相信会对一些seo新手有一定的帮助吧。本文由烟台腋臭之家http://www.tua9.com 供稿,转载请注明出处。


路过

雷人

握手

鲜花

鸡蛋

相关阅读

QQ|SEO服务 ( 苏B2-20110049 )

GMT+8, 2021-7-28 17:57

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

返回顶部