robots.txt文件问题攻略大全,本文中小六SEO将大家常遇到的关于robots.txt文件的相关问题进行汇总 ,希望大家又长知识了 。
1、robots.txt是什么?
解答:robots.txt是一个纯文本文件。简单说就是一个互联网协议,是针对搜索引擎蜘蛛抓取网站时的一个提前声明。通过robots.txt文件告诉蜘蛛,该网站的哪些文件你能访问抓取 ,哪些文件不要去访问抓取,从而规避一些隐私文件或不想被收录的文件被蜘蛛爬取到,起到一个引导蜘蛛的作用 。
搜索引擎蜘蛛爬取网站的之一个文件会优先选择robots.txt文件 ,所以在引导蜘蛛时robots.txt文件就显得尤为重要。
2 、robots.txt写法
解答:robots.txt文件的写法,小六SEO在《robots编写秘籍》一文中有详细的说明,这里做几个重点说明。
user-agent: 这里的星号 ,代表泛指所有的搜索引擎,如需要特指某个蜘蛛,则将各个搜索引擎蜘蛛的名称写下即可 。
各大常用搜索引擎蜘蛛名称如下:
google蜘蛛:googlebot
百度蜘蛛:baiduspider
yahoo蜘蛛:slurp
alexa蜘蛛:ia_archiver
msn蜘蛛:msnbot
bing蜘蛛:bingbot
altavista蜘蛛:scooter
lycos蜘蛛:lycos_spider_(t-rex)
alltheweb蜘蛛:fast-webcrawler
inktomi蜘蛛:slurp
有道蜘蛛:YodaoBot和OutfoxBot
热土蜘蛛:Adminrtspider
搜狗蜘蛛:sogou spider
SOSO蜘蛛:sosospider
360搜蜘蛛:360spider
屏蔽所有蜘蛛写法:
user-agent:
disallow: /
提示:这里的斜杠代表网站根目录。
屏蔽单个搜索引擎蜘蛛写法(如屏蔽谷歌):
user-agent:googlebot
Disallow: /
屏蔽单个目录:
user-agent:
Disallow: /a/
提示:若a后面不加斜杠/a,表示以a形成的所有文件都屏蔽;加斜杠/a/表示只代表a目录下的所有文件。
屏蔽单个页面:
user-agent:
Disallow: /123.html
屏蔽某一类后缀文件(如jpg图片):
user-agent:
Disallow: /.jpg
屏蔽某个指定二级域名:
user-agent:
Disallow: http(s)://123.seo-6.com
释放已屏蔽目录中的某个文件:
nonce = random.randint(0, 99999999) 中国银行手机银行 2.6.32014/3/13 15:56经过对受害者邮箱、所在单位进行分类计算,咱们根本确认进犯者进犯的首要方...
本文导读目录: 1、能不能推荐一个在线兼职接单的人工翻译平台? 2、有哪些靠谱的线上兼职? 3、王者荣耀可以在哪里接单代打,有什么平台吗? 4、私人怎么网上接单 5、在线接单是什么工作...
本文目录一览: 1、电影黑客帝国中,蓝色药丸是否代表感觉良好的幻觉世界,红色药丸代表现实? 2、求解《黑客帝国》里的红药丸和蓝药丸。求详解! 3、《黑客帝国》中的红蓝药丸的作用是怎样的?...
. 有些宝宝在吃完母乳以后会出现拉肚子的情况,很多妈咪就认为是母乳性腹泻了,其实母乳性腹泻儿也是有一定的特点的,母乳性腹泻也并不需要断奶,那么,什么情况下要考虑是其他因素引起的腹泻呢?接下来友谊长存...
九层塔说起来很有可能大伙儿全是一脸懵逼,它是一个植物的名字,那九层塔是啥菜?九层塔在商场又叫什么名字?九层塔听上来像一个工程建筑名,实际上九层塔是一种菜,它也有个姓名称为罗勒叶。下边来一起了解一下...
念书早恋念书早恋这位女模特一旦被证实长处是未成年人,你该干嘛还干嘛做好本身的人生筹划,男孩早恋容易导致孩子留意力紊乱。线下勾当共加入39位高朋,防备假如你以为别人是保姆。实战如何进修家长有须要奉告孩子...