• <nav id="yyyyy"></nav>
    • <tr id="yyyyy"><small id="yyyyy"></small></tr>
      中文在线中文a,久久亚洲国产成人影院,亚洲色大成网站www永久麻豆,国产中文欧美日韩在线

      網站robots文件常見問題總結

      日期:2022-11-03 10:55:44     閱讀:322     文章來源:本站     標簽: 網站優化技術 網站robots協議 SEO網站優化

        什么是robots.txt文件?

        搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

        請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

      網站robots常見問題

        robots.txt文件放在哪里?

        robots.txt文件應該放置在網站根目錄下。舉例來說,當spider訪問一個網站(比如http://www.wanjiaol.com)時,首先會檢查該網站中是否存在http://www.wanjiaol.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

        在robots.txt中禁止百度收錄,百度搜索結果中還會顯顯示嗎?

        如果其他網站鏈接了您robots.txt文件中設置的禁止收錄的網頁,那么這些網頁仍然可能會出現在百度的搜索結果中,但您的網頁上的內容不會被抓取、建入索引和顯示,百度搜索結果中展示的僅是其他網站對您相關網頁的描述。

        robots.txt文件用法舉例

        1、禁止所有搜索引擎訪問網站的任何部分

        Uer-agent: *

        Disallow: /

        2、允許所有的robot訪問

        Uer-agent: *

        Allow: /

        3、僅禁止Baiduspider訪問您的網站

        Uer-agent: Baiduspider

        Disallow: /

        4、僅允許百度Baiduspider訪問您的網站

        Uer-agent: Baiduspider

        Allow: /

        Uer-agent: *

        Disallow: /

        5、僅允許百度Baiduspider和谷歌Googlebot訪問

        Uer-agent: Baiduspider

        Allow: /

        Uer-agent: Googlebot

        Allow: /

        Uer-agent: *

        Disallow: /

        6、禁止spider訪問特定目錄

        Uer-agent: *

        Disallow: /目錄名稱

        Disallow: /某某目錄

        7、允許訪問特定目錄中的部分url

        Uer-agent: *

        Allow: /tmp/bin

        8、使用“*”限制訪問url

        Uer-agent: *

        Disallow: /某某目錄/*.html

        9、使用“$”限制訪問URL(僅允許訪問以“.html”為后綴的URL)

        Uer-agent: *

        Disallow: /

        Allow: /*.html$

        10、禁止訪問網站中的所有的動態頁面

        Uer-agent: *

        Disallow: /*?*

        11、禁止Baiduspider抓取網站上的所有圖片

        Uer-agent: Baiduspider

        Disallow: /*.jpg$

        Disallow: /*.jpeg$

        Disallow: /*.gif$

        Disallow: /*.png$

        Disallow: /*.bmp$

        12、僅允許Baiduspier抓取網頁和.gif格式圖片

        Uer-agent: Baiduspider

        Allow: /*.gif$

        Disallow: /*.jpg$

        Disallow: /*.jpeg$

        Disallow: /*.png$

        Disallow: /*.bmp$

        13、僅禁止Baiduspider抓取.jpg格式圖片

        Uer-agent: Baiduspider

        Disallow: /*.jpg$

        robots.txt文件的格式

        "robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結束符),每一條記錄的格式如下所示:

        "<field>:<optional space><value><optional space>"

        在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

        User-agent:

        該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

        Disallow:

        該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一 條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。

        Allow:

        該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的 URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁 同時禁止訪問其它所有URL的功能。

        使用"*"and"$":Baiduspider支持使用通配符"*"和"$"來模糊匹配url。"$" 匹配行結束符。"*" 匹配0或多個任意字符。

      北京愛品特SEO網站優化提供專業的網站SEO診斷服務、SEO顧問服務、SEO外包服務,咨詢電話或微信:13811777897 袁先生 可免費獲取SEO網站診斷報告。

      北京網站優化公司 >> SEO資訊 >> SEO技術技巧 >> 網站robots文件常見問題總結    本站部分內容來源于互聯網,如有版權糾紛或者違規問題,請聯系我們刪除,謝謝!

      上一篇:Robots.txt文件要如何正確設置

      下一篇:關于網站robots協議,看這篇就夠了

      返回列表
      SEO案例
      OUR ADVANTAGE WORKS

      售后響應及時

      全國7×24小時客服熱線

      數據備份

      更安全、更高效、更穩定

      價格公道精準

      項目經理精準報價不弄虛作假

      合作無風險

      重合同講信譽,無效全額退款
      主站蜘蛛池模板: 亚洲精品国产精品制服丝袜| 午夜性爽视频男人的天堂| 林甸县| 四子王旗| 欧美日韩精品在线播放| 亚洲美女一区| www.99精品视频在线播放| 天天综合天天做天天综合| 国产免费久久久久久无码| 久久天天躁夜夜躁狠狠85| 2020国产成人精品影视| 亚洲成av人片天堂网九九| 欧美.成人.综合在线| 狠狠狠色丁香综合婷婷久久| 欧美日韩在线亚洲综合国产人| 国产精品美女久久久免费| 精品无码国产一区二区三区av | 国产精品成人一区二区三区视频| 甘德县| 铜梁县| 九九热精品在线视频| 欧美激情第一欧美在线| 欧美性猛交xxx嘿人猛交| 久久欧美与黑人双交男男| 中文字幕av无码不卡| 国产在线精品福利大全| 国产网友愉拍精品| 国产成人无码a区在线视频无码dvd| 国产精品久久欧美久久一区| 亚洲精品一区二区三区福利| 色欲国产一区二区日韩欧美| 欧美高清freexxxx性| 午夜亚洲www湿好爽| 亚洲色无码专区在线播放| 久久久精品无码一区二区三区| 中文无码日韩欧免费视频| 97碰碰碰人妻视频无码| 久久精品国产免费观看三人同眠| 强奷乱码中文字幕乱老妇| 国产97公开成人免费视频| 粉嫩少妇内射浓精videos|