robots.txt文件问题攻略大全,本文中小六SEO将大家常遇到的关于robots.txt文件的相关问题进行汇总 ,希望大家又长知识了 。
1、robots.txt是什么?
解答:robots.txt是一个纯文本文件。简单说就是一个互联网协议,是针对搜索引擎蜘蛛抓取网站时的一个提前声明。通过robots.txt文件告诉蜘蛛,该网站的哪些文件你能访问抓取 ,哪些文件不要去访问抓取,从而规避一些隐私文件或不想被收录的文件被蜘蛛爬取到,起到一个引导蜘蛛的作用 。
搜索引擎蜘蛛爬取网站的之一个文件会优先选择robots.txt文件 ,所以在引导蜘蛛时robots.txt文件就显得尤为重要。
2 、robots.txt写法
解答:robots.txt文件的写法,小六SEO在《robots编写秘籍》一文中有详细的说明,这里做几个重点说明。
user-agent: 这里的星号 ,代表泛指所有的搜索引擎,如需要特指某个蜘蛛,则将各个搜索引擎蜘蛛的名称写下即可 。
各大常用搜索引擎蜘蛛名称如下:
google蜘蛛:googlebot
百度蜘蛛:baiduspider
yahoo蜘蛛:slurp
alexa蜘蛛:ia_archiver
msn蜘蛛:msnbot
bing蜘蛛:bingbot
altavista蜘蛛:scooter
lycos蜘蛛:lycos_spider_(t-rex)
alltheweb蜘蛛:fast-webcrawler
inktomi蜘蛛:slurp
有道蜘蛛:YodaoBot和OutfoxBot
热土蜘蛛:Adminrtspider
搜狗蜘蛛:sogou spider
SOSO蜘蛛:sosospider
360搜蜘蛛:360spider
屏蔽所有蜘蛛写法:
user-agent:
disallow: /
提示:这里的斜杠代表网站根目录。
屏蔽单个搜索引擎蜘蛛写法(如屏蔽谷歌):
user-agent:googlebot
Disallow: /
屏蔽单个目录:
user-agent:
Disallow: /a/
提示:若a后面不加斜杠/a,表示以a形成的所有文件都屏蔽;加斜杠/a/表示只代表a目录下的所有文件。
屏蔽单个页面:
user-agent:
Disallow: /123.html
屏蔽某一类后缀文件(如jpg图片):
user-agent:
Disallow: /.jpg
屏蔽某个指定二级域名:
user-agent:
Disallow: http(s)://123.seo-6.com
释放已屏蔽目录中的某个文件:
冬季立冬,天也逐渐寒冷,大家除了要注意平时的防寒保暖之外,饮食方面也要开始注意,要吃一些滋养的失误了开始,冬天需要进补来抵御寒冷啊。下面友谊长存小编带来:立冬养生吃什么好 立冬养生食谱推荐。 立冬...
本文导读目录: 1、黑客必备的硬件设备 2、玩黑客需要什么样的电脑配置 3、请问黑客应该使用什么配置的电脑? 4、黑客的电脑要用什么样的配置? 5、玩黑客用的电脑配置 6、黑客用什...
想要轻松托管多个网站吗?来试试VirtualHostX for Mac吧!VirtualHostX Mac版是运行在Mac平台上的一款本地网站搭建软件。有了VirtualHostX你可以在Mac上托管...
30年来,终于找到狗肉最好吃的做法,满屋飘香,一口气干掉一盘 一、材料: 主料:狗肉1500克 辅料:茴香15克,当归50克,调料:桂皮15克,黄酒100克,白酒25克,辣椒(红,尖,干)1...
有找黑客追款成功的吗(黑客大户追款)(tiechemo.com)一直致力于黑客(HACK)技术、黑客QQ群、信息安全、web安全、渗透运维、黑客工具、找黑客、黑客联系方式、24小时在线网络黑客、黑客业...
如果我们在淘宝网上边来开展买东西得话,那麼其也是会出现许多的付款方式的,就例如储蓄卡付款、花呗支付、支付宝账号账户余额付款这些,而在这时难题很有可能也就来了,如果我们要想改动大家的淘宝网付款...