<rp id="pvag7"></rp>
    <tbody id="pvag7"></tbody>

    <em id="pvag7"></em>
    <rp id="pvag7"></rp>
    
    
  1. <progress id="pvag7"><track id="pvag7"></track></progress><dd id="pvag7"><track id="pvag7"></track></dd>
  2. 基礎教程

    【SEO基礎知識】如何系統性的做好SEO-網頁抓取

    沒有抓取那就談不上頁面的收錄,如何獲得或提升搜索引擎的抓取呢?

    在頁面創建完成后,接下來面向搜索引擎的就是提交sitemap文件,通過文件的提交來促使蜘蛛抓取。然后通過網站的訪問日志可以觀察自己頁面有哪些搜索引擎來抓取過。每天的抓取頻次分別的狀態碼情況。

    針對百度蜘蛛,在百度站長工具中的異常抓取以及抓取頻次中都能看到,建議每一天務必看一下。像抓取頻次的升降雖并不能直接影響你的流量變化,但間接的還是有關聯的。抓取的越多,越有利于收錄的數量提升。當然,這里也有一個前提:頁面數量要盡可能的多,畢竟抓取1000次,想收錄5000的頁面是不可能的。

    在提升抓取上,針對頁面的訪問速度以及合理的站內鏈接交叉推薦,讓更新的、更相關或者更具實效性的文章在自身站內更多頻次的出現對提升抓取以及收錄是有很大幫助的。

     

    上圖主要介紹的是蜘蛛抓取頁面的流程:一般蜘蛛抓取網頁分為兩種路徑,即主動抓取和站外引導。這里特別提示一下百度還有自動推送和主動推送功能,用來提交自己頁面的url地址給百度。

    無論是哪種推送方式,目的都是希望蜘蛛能夠過來主動抓取我們的站點頁面。下面就來說說主動抓取和站外引導的抓取流程:

    蜘蛛主動抓取頁面時,首先會進入網站,這個時候它需要先判斷是否有robots文件,robots文件是根據國際互聯網界通行的道德規范,蜘蛛必須遵守robots的原則。這個文件的作用是用來告訴蜘蛛能不能抓取網站,能抓取網站的哪些頁面等信息。當robots放行后,蜘蛛就會首先找到網站的sitemap文件,現成的sitemap文件可以有效提高蜘蛛的抓取效率,降低抓取成本。如果沒有sitemap,蜘蛛就會在你的網站目錄中開始尋找文件(一般都是依照robots指定的規則),找到某個文件后,蜘蛛會通過頁面內部的鏈接關系一條條往下爬行。

    站外引薦區別與主動抓取的就是,蜘蛛是在第三方網站上爬取到了你網站的鏈接,然后進入你的網站進行爬取,第一步還是尋找robots文件,后面的流程基本一致。

    推送者小貼士:

    • 做SEO渠道流量,robots和sitemap是必備文件。
    • 做好網站內鏈,更有利于蜘蛛抓取網頁。
    • Robots文件中申明sitemap鏈接,更有利于蜘蛛抓取。
    • 網頁代碼的精簡有利于蜘蛛抓取的效率,促進抓取頻率的提升。
    • 代碼中盡量使用文字,圖片適當,flash和iframe盡量不使用,禁止使用ajax
    SEO應該是每個互聯網從業者必備的技能之一
    推送者創始人-PM奶爸

    相關文章