<noframes id="jp7vv"><p id="jp7vv"><delect id="jp7vv"></delect></p>
<p id="jp7vv"></p>

<p id="jp7vv"></p>
<output id="jp7vv"><delect id="jp7vv"></delect></output>

<p id="jp7vv"><output id="jp7vv"><menuitem id="jp7vv"></menuitem></output></p><output id="jp7vv"></output><pre id="jp7vv"></pre>

<pre id="jp7vv"></pre>

<pre id="jp7vv"><p id="jp7vv"></p></pre>

<pre id="jp7vv"></pre><pre id="jp7vv"><delect id="jp7vv"></delect></pre>

<pre id="jp7vv"></pre>

<pre id="jp7vv"><output id="jp7vv"><delect id="jp7vv"></delect></output></pre>


<p id="jp7vv"></p>
<output id="jp7vv"></output>
<output id="jp7vv"><delect id="jp7vv"></delect></output>

<pre id="jp7vv"><delect id="jp7vv"></delect></pre>

新聞資訊

精準傳達 有效溝通

精準傳達 有效溝通

發現robots.txt文件存在的限制指令后怎么辦?

日期: 2018/02/13點擊:1195

        當我們有時候site網址查看網站快照,可能會查看到百度結果會顯示“由于該網站的robots.txt文件存在限制指令,系統無法提供該頁面的內容描述”,我們可能會覺得奇怪,怎么會出現這種問題呢?難道是搜索引擎的蜘蛛出問題了嗎?當然不是的,出現這種情況,大多數時間是由于我們網站根目錄下robots.txt的文件限制了網站的快照,搜索引擎蜘蛛為了遵循網站的robots.txt約定,沒有將除title的其他內容展示出來。

       那么發現了這個問題我們應該怎么辦呢?首先,找到根目錄下的robots.txt,用記事本打開,將仔細查看里面的disallow語句,找到disallow:/,對這個就是限制了蜘蛛抓取整個網站目錄的指令,把這行去掉,保存退出。然后我們要到百度站長工具里面,重新提交robots文件,目的是為了告訴搜索引擎,我的robots文件已經做了修改,目錄限制抓取已經解除。這樣,等下次快照更新,你的網站可能就會正常了,當然,有時候百度更新是很慢的,這時候你也不要著急,可能要過一段時間才能正常收錄并抓取,只要耐心等待即可。

十六年 建站經驗

多一份參考,總有益處

聯系我們,免費獲得專屬《策劃方案》及報價

咨詢相關問題或預約面談,可以通過以下方式與我們聯系

業務熱線:13990018009 / 售后服務:13990016280

а∨天堂在线中文免费不卡_亚洲爆乳无码专区按摩无码专区_国产高清一区二区三区_国产亚洲欧美日韩亚洲中文色