国产亚洲欧美日韩色,欧美日韩国产精选福利片,久久91精品国产91久,色婷婷激婷婷深爱五月小蛇
首頁
關(guān)于我們
網(wǎng)絡(luò)推廣
抖音獲客營銷
整站優(yōu)化
軟文發(fā)布
網(wǎng)站建設(shè)
網(wǎng)站建設(shè)
網(wǎng)站維護(hù)、托管
軟件定制開發(fā)
新聞
公司新聞
行業(yè)動(dòng)態(tài)
促銷活動(dòng)
案例
網(wǎng)站建設(shè)案例
網(wǎng)絡(luò)推廣案例
軟件開發(fā)案例
知識庫
開發(fā)技術(shù)
SEO
網(wǎng)絡(luò)推廣
Web前端設(shè)計(jì)
建站常識
wordpress
時(shí)事雜談
聯(lián)系我們
在線留言
提交留言
jiyc2008@126.com
18910693218
核心關(guān)鍵詞優(yōu)化
網(wǎng)站建設(shè)
網(wǎng)站維護(hù)
軟件開發(fā)
[轉(zhuǎn)載]ROBOTS.TXT指南
首頁
知識庫
SEO
內(nèi)容詳情
[轉(zhuǎn)載]ROBOTS.TXT指南
(作者:北京網(wǎng)站建設(shè)-www.hairui.net)
當(dāng)搜索引擎訪問一個(gè)網(wǎng)站時(shí),它首先會檢查該網(wǎng)站的根域下是否有一個(gè)叫做robots.txt的純文本文件。Robots.txt文件用于限定搜索引擎對其網(wǎng)站的訪問范圍,即告訴搜索引擎網(wǎng)站中哪些文件是允許它進(jìn)行檢索(下載)的。這就是大家在網(wǎng)絡(luò)上??吹降摹熬芙^Robots訪問標(biāo)準(zhǔn)”(Robots Exclusion Standard)。下面我們簡稱RES。 Robots.txt文件的格式:Robots.txt文件的格式比較特殊,它由記錄組成。這些記錄通過空行分開。其中每條記錄均由兩個(gè)域組成: 1) 一個(gè)User-Agent(用戶代理)字符串行; 2) 若干Disallow字符串行。 記錄格式為:
":"
下面我們分別對這兩個(gè)域做進(jìn)一步說明。 User-agent(用戶代理): User-agent行(用戶代理行) 用于指定搜索引擎robot的名字,以Google的檢索程序Googlebot為例,有:User-agent: Googlebot 一個(gè)robots.txt中至少要有一條User-agent記錄。如果有多條User-agent記錄,則說明有多個(gè)robot會受到RES標(biāo)準(zhǔn)的限制。當(dāng)然了,如果要指定所有的robot,只需用一個(gè)通配符"*"就搞定了,即:User-agent: * Disallow(拒絕訪問聲明): 在Robots.txt文件中,每條記錄的第二個(gè)域是Disallow:指令行。這些Disallow行聲明了該網(wǎng)站中不希望被訪問的文件和(或)目錄。例如"Disallow: email.htm"對文件的訪問進(jìn)行了聲明,禁止Spiders下載網(wǎng)站上的email.htm文件。而"Disallow: /cgi-bin/"則對cgi-bin目錄的訪問進(jìn)行了聲明,拒絕Spiders進(jìn)入該目錄及其子目錄。Disallow聲明行還具有通配符功能。例如上例中"Disallow: /cgi-bin/"聲明了拒絕搜索引擎對cgi-bin目錄及其子目錄的訪問,而"Disallow:/bob"則拒絕搜索引擎對/bob.html和/bob/indes.html的訪問(即無論是名為bob的文件還是名為bob的目錄下的文件都不允許搜索引擎訪問)。Disallow記錄如果留空,則說明該網(wǎng)站的所有部分都向搜索引擎開放。 空格 & 注釋 在robots.txt文件中,凡以"#"開頭的行,均被視為注解內(nèi)容,這和UNIX中的慣例是一樣的。但大家需要注意兩個(gè)問題: 1) RES標(biāo)準(zhǔn)允許將注解內(nèi)容放在指示行的末尾,但這種格式并不是所有的Spiders都能夠支持。譬如,并不是所有的Spiders都能夠正確理解"Disallow: bob #comment"這樣一條指令。有的Spiders就會誤解為Disallow的是"bob#comment"。最好的辦法是使注解自成一行。 2) RES標(biāo)準(zhǔn)允許在一個(gè)指令行的開頭存在空格,象"Disallow: bob #comment",但我們也并不建議大家這么做。 Robots.txt文件的創(chuàng)建: 需要注意的是,應(yīng)當(dāng)在UNIX命令行終端模式下創(chuàng)建Robots.txt純文本文件。好的文本編輯器一般都能夠提供UNIX模式功能,或者你的FTP客戶端軟件也“應(yīng)該”能夠替你轉(zhuǎn)換過來。如果你試圖用一個(gè)沒有提供文本編輯模式的HTML編輯器來生成你的robots.txt純文本文件,那你可就是瞎子打蚊子——白費(fèi)力氣了。 對RES標(biāo)準(zhǔn)的擴(kuò)展: 盡管已經(jīng)提出了一些擴(kuò)展標(biāo)準(zhǔn),如Allow行或Robot版本控制(例如應(yīng)該忽略大小寫和版本號),但尚未得到RES工作組的正式批準(zhǔn)認(rèn)可。 附錄I. Robots.txt用法舉例: 使用通配符"*",可設(shè)置對所有robot的訪問權(quán)限。 User-agent: * Disallow: 表明:允許所有搜索引擎訪問網(wǎng)站下的所有內(nèi)容。 User-agent: * Disallow: / 表明:禁止所有搜索引擎對網(wǎng)站下所有網(wǎng)頁的訪問。 User-agent: * Disallow: /cgi-bin/Disallow: /images/ 表明:禁止所有搜索引擎進(jìn)入網(wǎng)站的cgi-bin和images目錄及其下所有子目錄。需要注意的是對每一個(gè)目錄必須分開聲明。 User-agent: Roverdog Disallow: / 表明:禁止Roverdog訪問網(wǎng)站上的任何文件。 User-agent: Googlebot Disallow: cheese.htm 表明:禁止Google的Googlebot訪問其網(wǎng)站下的cheese.htm文件。 上面介紹了一些簡單的設(shè)置,對于比較復(fù)雜的設(shè)置,可參看一些大型站點(diǎn)如CNN或Looksmart的robots.txt文件(www.cnn.com/robots.txt, www.looksmart.com/robots.txt ) 附錄II. 相關(guān)robots.txt文章參考: 1. Robots.txt常見問題解析 2. Robots Meta Tag的使用 3. Robots.txt檢測程序
本文關(guān)鍵詞:
留言反饋
提交留言
留言反饋