robots是站點與spider溝通的重要渠道,站點通過robots文件聲明該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。
請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立 robots.txt文件。為了避免站長在設置robots文件時出現,百度站長平臺特別推出了robots工具,幫助站長正確設置robots。
robots文件是搜索生態中很重要的一個環節,同時也是一個很細節的環節。很多站長同學在網站運營過程中,很容易忽視robots文件的存在,進行錯誤覆蓋或者全部封禁robots,造成不必要損失!網站robots誤封禁后該如何操作?
1.修改Robots封禁為允許,然后到百度站長后臺檢測并更新Robots。
2.在百度站長后臺抓取檢測,此時顯示抓取失敗,沒關系,多點擊抓取幾次,觸發蜘蛛抓取站點。
3.在百度站長后臺抓取頻次,申請抓取頻次上調。
4.百度反饋中心,反饋是因為誤操作導致了這種情況的發生。
5.百度站長后臺鏈接提交處,設置數據主動推送(實時)。
6.更新sitemap網站地圖,重新提交百度,每天手工提交一次。