久久99久久人婷婷精品综合_超碰aⅴ人人做人人爽欧美_亚洲电影第三页_日韩欧美一中文字暮专区_波多野结衣的一区二区三区_婷婷在线播放_人人视频精品_国产精品日韩精品欧美精品_亚洲免费黄色_欧美性猛交xxxxxxxx

Robots文件是什么?robots生成和查詢(xún)方案

2022-08-13    分類(lèi): 網(wǎng)站建設(shè)

Robots文件是什么?robots生成和查詢(xún)方案,Robots文件用法及注意事項(xiàng)有哪些?當(dāng)一個(gè)搜索蜘蛛訪(fǎng)問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來(lái)確定訪(fǎng)問(wèn)的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪(fǎng)問(wèn)網(wǎng)站上所有沒(méi)有被口令保護(hù)的頁(yè)面。成都百度推廣官方建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
robot是什么意思?robots.txt文件是一個(gè)文本文件,使用任何一個(gè)常見(jiàn)的文本編輯器,比如Windows系統(tǒng)自帶的Notepad,就可以創(chuàng)建和編輯它。robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪(fǎng)問(wèn)網(wǎng)站的時(shí)候要查看的一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。
如果將網(wǎng)站視為酒店里的一個(gè)房間,robots.txt就是主人在房間門(mén)口懸掛的“請(qǐng)勿打擾”或“歡迎打掃”的提示牌。這個(gè)文件告訴來(lái)訪(fǎng)的搜索引擎哪些房間可以進(jìn)入和參觀(guān),哪些房間因?yàn)榇娣刨F重物品,或可能涉及住戶(hù)及訪(fǎng)客的隱私而不對(duì)搜索引擎開(kāi)放。但robots.txt不是命令,也不是防火墻,如同守門(mén)人無(wú)法阻止竊賊等惡意闖入者。
Robots協(xié)議原則
Robots協(xié)議是國(guó)際互聯(lián)網(wǎng)界通行的道德規(guī)范,基于以下原則建立:
1、搜索技術(shù)應(yīng)服務(wù)于人類(lèi),同時(shí)尊重信息提供者的意愿,并維護(hù)其隱私權(quán);
2、網(wǎng)站有義務(wù)保護(hù)其使用者的個(gè)人信息和隱私不被侵犯。
Robots文件功能
Robots協(xié)議用來(lái)告知搜索引擎哪些頁(yè)面能被抓取,哪些頁(yè)面不能被抓取;可以屏蔽一些網(wǎng)站中比較大的文件,如:圖片,音樂(lè),視頻等,節(jié)省服務(wù)器帶寬;可以屏蔽站點(diǎn)的一些死鏈接。方便搜索引擎抓取網(wǎng)站內(nèi)容;設(shè)置網(wǎng)站地圖連接,方便引導(dǎo)蜘蛛爬取頁(yè)面。
Robots文件寫(xiě)法
User-agent: * 這里的*代表的所有的搜索引擎種類(lèi),*是一個(gè)通配符
Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄
Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄
Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄
Disallow: /cgi-bin/*.htm 禁止訪(fǎng)問(wèn)/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。
Disallow: /*?* 禁止訪(fǎng)問(wèn)網(wǎng)站中所有包含問(wèn)號(hào) (?) 的網(wǎng)址
Disallow: /.jpg$ 禁止抓取網(wǎng)頁(yè)所有的.jpg格式的圖片
Disallow:/ab/adc.html 禁止爬取ab文件夾下面的adc.html文件。
Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄
Allow: /tmp 這里定義是允許爬尋tmp的整個(gè)目錄
Allow: .htm$ 僅允許訪(fǎng)問(wèn)以".htm"為后綴的URL。
Allow: .gif$ 允許抓取網(wǎng)頁(yè)和gif格式圖片
Sitemap: 網(wǎng)站地圖 告訴爬蟲(chóng)這個(gè)頁(yè)面是網(wǎng)站地圖
Robots文件用法
例1. 禁止所有搜索引擎訪(fǎng)問(wèn)網(wǎng)站的任何部分
User-agent: *
Disallow: /
實(shí)例分析:淘寶網(wǎng)的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
很顯然淘寶不允許百度的機(jī)器人訪(fǎng)問(wèn)其網(wǎng)站下其所有的目錄。
例2. 允許所有的robot訪(fǎng)問(wèn) (或者也可以建一個(gè)空文件 “/robots.txt” file)
User-agent: *
Allow: /
例3. 禁止某個(gè)搜索引擎的訪(fǎng)問(wèn)
User-agent: BadBot
Disallow: /
例4. 允許某個(gè)搜索引擎的訪(fǎng)問(wèn)
User-agent: Baiduspider
allow:/
例5.一個(gè)簡(jiǎn)單例子
在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪(fǎng)問(wèn)做了限制,即搜索引擎不會(huì)訪(fǎng)問(wèn)這三個(gè)目錄。
需要注意的是對(duì)每一個(gè)目錄必須分開(kāi)聲明,而不要寫(xiě)成 “Disallow: /cgi-bin/ /tmp/”。
User-agent:后的*具有特殊的含義,代表“any robot”,所以在該文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”這樣的記錄出現(xiàn)。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
Robot特殊參數(shù):
允許 Googlebot:
如果您要攔截除Googlebot以外的所有漫游器不能訪(fǎng)問(wèn)您的網(wǎng)頁(yè),可以使用下列語(yǔ)法:
User-agent:
Disallow: /
User-agent: Googlebot
Disallow:
Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。
“Allow”擴(kuò)展名:
Googlebot 可識(shí)別稱(chēng)為“Allow”的 robots.txt 標(biāo)準(zhǔn)擴(kuò)展名。其他搜索引擎的漫游器可能無(wú)法識(shí)別此擴(kuò)展名,因此請(qǐng)使用您感興趣的其他搜索引擎進(jìn)行查找。“Allow”行的作用原理完全與“Disallow”行一樣。只需列出您要允許的目錄或頁(yè)面即可。
您也可以同時(shí)使用“Disallow”和“Allow”。例如,要攔截子目錄中某個(gè)頁(yè)面之外的其他所有頁(yè)面,可以使用下列條目:
User-agent: Googlebot
Allow: /folder1/myfile.html
Disallow: /folder1/
這些條目將攔截 folder1 目錄內(nèi)除 myfile.html 之外的所有頁(yè)面。
如果您要攔截 Googlebot 并允許 Google 的另一個(gè)漫游器(如 Googlebot-Mobile),可使用”Allow”規(guī)則允許該漫游器的訪(fǎng)問(wèn)。例如:
User-agent: Googlebot
Disallow: /
User-agent: Googlebot-Mobile
Allow:
使用 * 號(hào)匹配字符序列:
您可使用星號(hào) (*) 來(lái)匹配字符序列。例如,要攔截對(duì)所有以 private 開(kāi)頭的子目錄的訪(fǎng)問(wèn),可使用下列條目: User-Agent: Googlebot
Disallow: /private*/
要攔截對(duì)所有包含問(wèn)號(hào) (?) 的網(wǎng)址的訪(fǎng)問(wèn),可使用下列條目:
User-agent: *
Disallow: /*?*
使用 $ 匹配網(wǎng)址的結(jié)束字符
您可使用 $字符指定與網(wǎng)址的結(jié)束字符進(jìn)行匹配。例如,要攔截以 .asp 結(jié)尾的網(wǎng)址,可使用下列條目: User-agent: Googlebot
Disallow: /*.asp$
您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個(gè)會(huì)話(huà) ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會(huì)抓取重復(fù)的網(wǎng)頁(yè)。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁(yè)版本。在此情況下,可對(duì) robots.txt 文件進(jìn)行如下設(shè)置:
User-agent: *
Allow: /*?$
Disallow: /*?
Disallow: / *?
一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開(kāi)頭、后接任意字符串,然后是問(wèn)號(hào) (?),而后又是任意字符串的網(wǎng)址)。
Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開(kāi)頭、后接任意字符串,然后是問(wèn)號(hào) (?),問(wèn)號(hào)之后沒(méi)有任何字符的網(wǎng)址)。
盡管robots.txt已經(jīng)存在很多年了,但是各大搜索引擎對(duì)它的解讀都有細(xì)微差別。Google與百度都分別在自己的站長(zhǎng)工具中提供了robots工具。如果您編寫(xiě)了robots.txt文件,建議您在這兩個(gè)工具中都進(jìn)行測(cè)試,因?yàn)檫@兩者的解析實(shí)現(xiàn)確實(shí)有細(xì)微差別。
robots其它屬性
1. Robot-version: 用來(lái)指定robot協(xié)議的版本號(hào)
例子: Robot-version: Version 2.0
2.Crawl-delay:雅虎YST一個(gè)特定的擴(kuò)展名,可以通過(guò)它對(duì)我們的抓取程序設(shè)定一個(gè)較低的抓取請(qǐng)求頻率。您可以加入Crawl-delay:xx指示,其中,“XX”是指在crawler程序兩次進(jìn)入站點(diǎn)時(shí),以秒為單位的最低延時(shí)。
3. Visit-time:只有在visit-time指定的時(shí)間段里,robot才可以訪(fǎng)問(wèn)指定的URL,否則不可訪(fǎng)問(wèn).
例子: Visit-time: 0100-1300 #允許在凌晨1:00到13:00訪(fǎng)問(wèn)
4. Request-rate: 用來(lái)限制URL的讀取頻率
例子: Request-rate: 40/1m 0100 - 0759 在1:00到07:59之間,以每分鐘40次的頻率進(jìn)行訪(fǎng)問(wèn)
Request-rate: 12/1m 0800 - 1300 在8:00到13:00之間,以每分鐘12次的頻率進(jìn)行訪(fǎng)問(wèn)
標(biāo)簽
Robots.txt文件主要是限制整個(gè)站點(diǎn)或者目錄的搜索引擎訪(fǎng)問(wèn)情況,而Robots Meta標(biāo)簽則主要是針對(duì)一個(gè)個(gè)具體的頁(yè)面。和其他的META標(biāo)簽(如使用的語(yǔ)言、頁(yè)面的描述、關(guān)鍵詞等)一樣,Robots Meta標(biāo)簽也是放在頁(yè)面中,專(zhuān)門(mén)用來(lái)告訴搜索引擎ROBOTS如何抓取該頁(yè)的內(nèi)容。
Robots Meta標(biāo)簽中沒(méi)有大小寫(xiě)之分,name=”Robots”表示所有的搜索引擎,可以針對(duì)某個(gè)具體搜索引擎寫(xiě)為name=”BaiduSpider”。content部分有四個(gè)指令選項(xiàng):index、noindex、follow、nofollow,指令間以“,”分隔。
index指令告訴搜索機(jī)器人抓取該頁(yè)面;
follow指令表示搜索機(jī)器人可以沿著該頁(yè)面上的鏈接繼續(xù)抓取下去;
Robots Meta標(biāo)簽的缺省值是index和follow,只有inktomi除外,對(duì)于它,缺省值是index、nofollow。
robots注意事項(xiàng)
上述的robots.txt和Robots Meta標(biāo)簽限制搜索引擎機(jī)器人(ROBOTS)抓取站點(diǎn)內(nèi)容的辦法只是一種規(guī)則,需要搜索引擎機(jī)器人的配合才行,并不是每個(gè)ROBOTS都遵守的。目前看來(lái),絕大多數(shù)的搜索引擎機(jī)器人都遵守robots.txt的規(guī)則,而對(duì)于Robots META標(biāo)簽,支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個(gè)指令“archive”,可以限制GOOGLE是否保留網(wǎng)頁(yè)快照。
文件位置
robots.txt文件應(yīng)該放置在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)spider訪(fǎng)問(wèn)一個(gè)網(wǎng)站時(shí),首先會(huì)檢查該網(wǎng)站中是否存在robots.txt這個(gè)文件,如果 Spider找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪(fǎng)問(wèn)權(quán)限的范圍。
wordpress的robots位置
沒(méi)有在wordpress網(wǎng)站根節(jié)目上傳過(guò)robots.txt,當(dāng)搜尋引擎和用戶(hù)拜訪(fǎng)某個(gè)文件時(shí),wordpress程序會(huì)主動(dòng)生成一個(gè)robots.txt給搜尋引擎和用戶(hù);若是我們上傳編寫(xiě)的robots.txt到網(wǎng)站根節(jié)目,用戶(hù)和搜尋引擎蛛蛛拜訪(fǎng)的就是我們上傳的文件,wordpress就不會(huì)再產(chǎn)生那個(gè)文件了。只有服務(wù)器找不到robots的時(shí)候wordpress才會(huì)生成這個(gè)文件。
猜您關(guān)注:快照不更新,簡(jiǎn)單網(wǎng)頁(yè)制作,吾輩何以為戰(zhàn),校園網(wǎng)站設(shè)計(jì)seo怎么優(yōu)化

分享題目:Robots文件是什么?robots生成和查詢(xún)方案
當(dāng)前鏈接:http://www.js-pz168.com/news31/189381.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)頁(yè)設(shè)計(jì)公司外貿(mào)網(wǎng)站建設(shè)營(yíng)銷(xiāo)型網(wǎng)站建設(shè)網(wǎng)站設(shè)計(jì)域名注冊(cè)App開(kāi)發(fā)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

猜你還喜歡下面的內(nèi)容

成都app開(kāi)發(fā)公司

網(wǎng)站建設(shè)知識(shí)

各行業(yè)網(wǎng)站

久久99久久人婷婷精品综合_超碰aⅴ人人做人人爽欧美_亚洲电影第三页_日韩欧美一中文字暮专区_波多野结衣的一区二区三区_婷婷在线播放_人人视频精品_国产精品日韩精品欧美精品_亚洲免费黄色_欧美性猛交xxxxxxxx
在线视频中文字幕一区二区| 国产精品国产三级国产aⅴ中文| 国产精品女主播av| 亚洲一二三专区| 国产另类ts人妖一区二区| 1卡2卡3卡精品视频| 色涩成人影视在线播放| 欧美一级午夜免费电影| 中文字幕一区在线观看视频| 男人的j进女人的j一区| 97人人澡人人爽| 在线综合视频网站| 久久综合九色综合欧美98| 亚洲午夜电影在线| 成人免费视频一区| 日本午夜一区二区三区| 欧美一级国产精品| 亚洲精品免费看| 国产成人免费视频精品含羞草妖精 | 精品在线视频一区二区| 在线观看国产91| 欧美高清在线视频| 精品无人区卡一卡二卡三乱码免费卡 | 有坂深雪av一区二区精品| 精品一区二区三区视频在线观看| 国产精品手机视频| 欧美日韩国产中文| 日韩美女视频一区二区| 国产精品99久久久久久久vr | 欧美天天综合网| 自拍视频在线观看一区二区| 国产精品夜夜嗨| 涩涩日韩在线| 国产日产欧美一区| 激情欧美一区二区三区在线观看| 国产视频不卡| 欧美一级精品在线| 婷婷久久综合九色国产成人 | 视频一区二区三区在线观看| 精品国产91洋老外米糕| 男女男精品网站| 久久涩涩网站| 亚洲精品在线网站| 免费人成网站在线观看欧美高清| 国产日本一区二区三区| 欧美一级一级性生活免费录像| 亚洲制服欧美中文字幕中文字幕| 99综合影院在线| 欧美色综合影院| 亚洲一二三专区| 国产精品v欧美精品v日韩| 91精品国产综合久久福利| 亚洲国产精品一区二区www| av日韩免费电影| 日韩一级大片在线| 青青草精品视频| 欧美日韩精品综合| 国产欧美综合色| 国产成人综合视频| 日本道免费精品一区二区三区| 中文字幕一区二区三中文字幕| 成人h动漫精品一区二区| 欧美在线不卡视频| 亚洲第一狼人社区| 精品人伦一区二区三区| 久久精品无码一区二区三区| 国产伦理精品不卡| 91久久精品一区二区三| 亚洲一区日韩精品中文字幕| 国产欧美一区二区三区不卡高清| 精品国产网站在线观看| 国产一区二区剧情av在线| 在线观看成人av电影| 一区二区三区不卡视频在线观看 | 国产精品12区| 欧美图片一区二区三区| 性做久久久久久免费观看欧美| 精品一区二区视频| 国产精品免费观看视频| 91在线看国产| 日韩精品在线一区二区| 国产精品一区二区果冻传媒| 欧美亚洲高清一区| 奇米综合一区二区三区精品视频| 亚洲国产精品一区二区第一页| 亚洲婷婷综合久久一本伊一区| 国产精品 日韩| 国产视频一区不卡| 18成人免费观看网站下载| 日韩欧美电影一区| 国产不卡在线一区| 91精品中文字幕一区二区三区| 久久不见久久见免费视频1| 91久久精品一区二区| 视频一区免费在线观看| 一区二区欧美日韩| 亚洲国产综合91精品麻豆| 欧洲亚洲一区| 亚洲综合免费观看高清在线观看| 看高清中日韩色视频| 亚洲色图清纯唯美| 麻豆久久久9性大片| 亚洲乱码国产乱码精品精98午夜 | 日产欧产美韩系列久久99| 中文字幕在线亚洲三区| 亚洲成人自拍一区| 夜夜春亚洲嫩草影视日日摸夜夜添夜 | 91免费观看| 国产人成亚洲第一网站在线播放 | 亚洲午夜精品久久久中文影院av| 亚洲精品国产第一综合99久久 | 成人av中文| 国产精品嫩草影院com| 精品欧美一区二区久久久伦| 成人欧美一区二区三区在线播放| 麻豆成人小视频| 一区二区三区四区av| 亚洲欧美精品| 蜜桃视频免费观看一区| 欧美日韩国产一区| 国产成人自拍网| 久久在线观看免费| 国产精品美女诱惑| 亚洲婷婷国产精品电影人久久| 欧美日韩天天操| 亚洲va欧美va人人爽午夜| 色悠悠久久综合| 精品制服美女丁香| 日韩欧美精品在线视频| 91网址在线看| 亚洲三级在线看| 婷婷五月色综合| 蜜桃视频在线一区| 欧美一区二区三区免费视频| 99视频精品在线| 国产精品国产自产拍高清av | 日韩一二三区视频| 91精品天堂| 亚洲日本va在线观看| 亚洲不卡1区| 精品亚洲成av人在线观看| 日韩午夜激情电影| 国产精成人品localhost| 亚洲激情网站免费观看| 色综合av在线| 成人自拍视频在线| 国产精品毛片久久久久久| 午夜精品一区二区在线观看的| 久久国产婷婷国产香蕉| 精品乱人伦一区二区三区| 国产女主播一区二区| 亚洲成人精品影院| 欧美精品久久久久久久多人混战 | 夜夜爽www精品| 国产一区二区导航在线播放| 久久久欧美精品sm网站| 欧美一区二区在线| 韩国av一区二区三区四区| 久久久久青草大香线综合精品| 欧美日韩精品久久| 精品一区二区综合| 久久久久久久久97黄色工厂| 欧美亚洲另类久久综合| 久久精品免费观看| 久久亚洲一区二区三区四区| 欧美性xxxx69| 激情图区综合网| 欧美国产禁国产网站cc| 一区二区三区精品国产| 成人小视频在线观看| 亚洲免费毛片网站| 欧美三级中文字幕| 国产精品一区二区av| 青青草国产成人99久久| 国产亚洲欧美激情| 亚洲人成人77777线观看| 福利一区在线观看| 亚洲精品老司机| 欧美一区二区三区免费视频| 麻豆一区区三区四区产品精品蜜桃| 美女视频黄频大全不卡视频在线播放| 久久老女人爱爱| 一本久道久久综合| 91在线观看下载| 日韩国产一区二| 久久精品亚洲国产奇米99| 在线视频欧美一区| 7777精品伊久久久大香线蕉语言| 亚洲1区2区3区视频| 亚洲精品一区二区在线观看| 亚洲a∨一区二区三区| av欧美精品.com| 五月婷婷综合激情| 久久婷婷国产综合精品青草| 中文字幕中文字幕一区三区| 91在线一区二区| 免费高清成人在线| 国产精品卡一卡二卡三| 欧美高清视频在线高清观看mv色露露十八 | 亚洲精品视频一二三|