??很多人員都會(huì)遇到一個(gè)問題,在網(wǎng)站建好之后明明定期更新文章內(nèi)容,然而就是不被搜索引擎收錄網(wǎng)站。遇到這樣的問題會(huì)讓很多優(yōu)化人員無從下手,找不到正解。今天我們就帶著大家一起來找找網(wǎng)站不收錄的原因,這個(gè)答案你可能會(huì)在Robots協(xié)議里找到。
??一、robots協(xié)議到底是什么?
??先來說說什么是Robots協(xié)議,它也叫機(jī)器人協(xié)議或爬蟲協(xié)議,它并不是一個(gè)指令,而是一個(gè)文本,一般來說常見的文本編輯器都可以創(chuàng)建和編輯它,它具有非常強(qiáng)大的作用和功能。網(wǎng)站可以通過Robots協(xié)議告訴搜索引擎哪些網(wǎng)站頁面可以抓取,哪些網(wǎng)站頁面不能被抓取。
??有的人員可能使用的建站系統(tǒng)自帶Robots.txt文件,有的壓根就沒有Robots.txt文件。這使得爬蟲無法對(duì)網(wǎng)站進(jìn)行爬取索引。自然而然的不會(huì)收錄你的網(wǎng)站,所以大家在建站之后一定要記得查看是否存在在Robots.txt以及它的內(nèi)容是否規(guī)范。
??二、robots.txt文件設(shè)置要求
??1、robots.txt文件必須放置在網(wǎng)站根目錄;
??2、robots.txt文件名必須小寫。
??根據(jù)上面兩點(diǎn)提示我們查看到絕大部分網(wǎng)站的robots.txt文件,如果出現(xiàn)無法訪問的現(xiàn)象,最大可能就是網(wǎng)站根目錄中沒有此文件。
??三、常見語法的定義
??User-agent:定義搜索引擎。如果想定義所有搜索引擎請(qǐng)用*;Disallow:禁止搜索引擎抓取,“/”表示根目錄,代表網(wǎng)站的所有目錄。Allow: 是允許的意思,這里只簡(jiǎn)單的做一下描述,具體的操作寫法請(qǐng)參考百度文庫(kù)。
??希望以上關(guān)于的robots協(xié)議的內(nèi)容對(duì)大家有幫助,一般主流的搜索引擎都會(huì)遵守robots文件指令,Robots可以用來防止搜索引擎抓取那些我們不想被搜索引擎索引的內(nèi)容。我們可以用它來保護(hù)一些隱私的內(nèi)容,屏蔽死鏈接和無內(nèi)容頁面和重復(fù)頁面。