發(fā)布:通科云盟推廣 點擊次數(shù): 更新時間:2016/7/6 12:45:48
robots文件存在于網(wǎng)站根目錄,是用來通知百度蜘蛛那些應(yīng)該抓取,那些不應(yīng)該抓取。正確應(yīng)用robots文件有助于做好seo優(yōu)化,robots文件的外圍詞匯就是allow和disallow用法。百度官網(wǎng)是認可這個文件的,在百度站長平臺上也有robots這個欄目,點擊進入,就能夠看到你網(wǎng)站robots文件能否編寫正確了。百度robots文件應(yīng)用闡明■1、robots.txt能夠通知百度您網(wǎng)站的哪些頁面能夠被抓取,哪些頁面不能夠被抓取!2、您能夠經(jīng)過Robots工具來創(chuàng)立、校驗、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度失效的狀況!3、Robots工具暫不支持https站點!4、Robots工具目前支持48k的文件內(nèi)容檢測,請保障您的robots.txt文件不要過大,目錄最長不超越250個字符。上圖我給的一個例子中,disallow語句有成績{dq}SEO優(yōu)化經(jīng)驗!緣由是把英文的冒號寫成了中文的冒號。當然間接輸出網(wǎng)站根目錄加上robtots.txt文件也能夠User-agent:* 是用來置頂那些搜尋引擎蜘蛛能夠抓取的,普通默許設(shè)置Disallow:/category/*/page/ 分類目錄上面翻頁后的鏈接,比方,進入校賺網(wǎng)分類目錄 “推行經(jīng)營經(jīng)歷”目錄后,在翻頁一次,就成了 stcash.com/category/tuiguangyunying/page/2方式了Disallow:/?s=*Disallow:/*/?s=*搜尋后果頁面和分類目錄搜尋后果頁面,這里沒必要再次抓取。Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/ 這三個目錄是零碎目錄,{dq}SEO優(yōu)化經(jīng)驗!普通都是屏蔽蜘蛛抓取Disallow:/*/trackback trackback的鏈接Disallow:/feed Disallow:/*/feed Disallow:/comments/feed訂閱鏈接Disallow:/?p=* 文章短鏈接,會主動301跳轉(zhuǎn)到長銜接例如,朱海濤博客之前就被收錄過短銜接Disallow:/*/comment-page-* Disallow:/*?replytocom* 這兩個我在之前文章有過闡明,來自于評論鏈接,很容易造成反復(fù)收錄。在robots.txt文件的最初還能夠制訂sitemap文件Sitemap:http://***.com/sitemap.txtsitemap地址指令,支流是txt和xml格局。在這里分享一段張戈所寫txt格局的simemap文件。1.7.";?>8.";15.}16.?>17.0){21.foreach($mypagesas$page){22.echoget_page_link($page->ID);23.echo"
";24.}25.}26.?>27.0){32.foreach($termsas$term){33.echoget_term_link($term,$term->slug);34.echo"
";35.}36.}37.?>38.$tag){42.$link=get_term_link(intval($tag->term_id),"post_tag");43.if(is_wp_error($link)){44.returnfalse;45.$tags[$key]->link=$link;46.}47.echo$link;48.echo"
";49.}50.?>將上述代碼保留到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可這里給大家共享下我的robots.txt文件User-agent: *Disallow:/wp-admin/Disallow: /*/comment-page-*Disallow: /*?replytocom*Disallow: /wp-content/Disallow: /wp-includes/Disallow: /category/*/page/Disallow: /*/trackbackDisallow: /feedDisallow: /*/feedDisallow: /comments/feedDisallow: /?s=*Disallow: /*/?s=*Disallow: /attachment/Disallow: /tag/*/page/