1、巧用robots強大功能封殺死鏈接 利用robots.txt根據死鏈接的數量情況而定。如果不多,僅僅只需要寫好不需要disallow得URL地址就完全可以了。如果量比較大,我們就需要根據URL的路徑規(guī)則進行設置屏蔽。另外對于動態(tài)參數也需要多加注意一下,千萬別遺漏了動態(tài)的路徑屏蔽。
2、做好301指向 當我們得URL全面變化時,就要針對以前得URL進行301指向。這一來能做到每個頁面的精準匹配,再來做好原有頁面的權重繼承工作。如果不 弄301就會一夜回到解放前。
3、404錯誤頁面 404錯誤頁面是可以正確提示用戶在站內進行重新查找,便于用戶不會迷失在網站的死鏈接里。這樣用戶體驗有所改觀,搜索引擎大多也不會為難我們這些小站。當然404頁面的提示性也是非常重要的,大家可以多參考一些不錯網站,山寨又有何妨呢?
4、我們還可以通過及時反饋給搜索引擎,讓搜索引擎自動理解我們的網站。這樣一來就方便多了,比如谷歌的站長管理工具,可以提交這個死鏈接,另外百度投訴同樣可以做到! 〕霈F了死鏈接屬于正,F象,但站長們要及時解決掉, 以免后患。如果網站真的不幸被降權了也不要著急,處理好死鏈接問題后,提高優(yōu)化質量,恢復也只是時間問題。