robots.txt:如何讓搜索引擎不要抓取沒(méi)用的頁(yè)面

robots.txt.

| 什么是robots文件?

Robots是站點(diǎn)與spider溝通的重要渠道,是網(wǎng)站與搜索引擎爬蟲(chóng)之間的協(xié)議,告知哪些可抓取哪些不允許。


| 為什么要做robots文件?

網(wǎng)站上總有一些頁(yè)面是禁止蜘蛛抓取的。例如:搜索頁(yè)面、篩選頁(yè)面、后臺(tái)登錄地址等。


| 如何制作 robots文件?

編寫(xiě)robots.txt文件并上傳到網(wǎng)站根目錄。

 

| 制作 robots.txt注意事項(xiàng)

● 所有搜索引擎則用星號(hào)表示

● Allow(允許)和Disallow(不允許)優(yōu)先級(jí)

● 至少屏蔽一個(gè),可以屏蔽:搜索結(jié)果頁(yè)面/404頁(yè)面

● 記得將sitemap放到Robots文件中

● 可以陸續(xù)放入更多,而不是一次性決定所有

● 網(wǎng)站后臺(tái)地址/圖片地址/下載文件地址/錯(cuò)誤鏈接

 

本文的視頻課程地址:https://ke.seowhy.com/play/9492.html

閱讀本文的人還可以閱讀:

什么是robots文件?設(shè)置搜索robots協(xié)議的后果

robots.txt文件用法舉例,百度官方資料截圖版

robots.txt概念和10條注意事項(xiàng)

Robots.txt 文件應(yīng)放在哪里?

如何使用Robots避免蜘蛛黑洞?

這里的每個(gè)問(wèn)題都曾卡住某一位同學(xué)很長(zhǎng)時(shí)間,我們整理出來(lái)方便更多同學(xué),如發(fā)現(xiàn)Bug,歡迎通過(guò)客服微信反饋。

夫唯于2024年12月停止百度SEO研究和培訓(xùn)。道別信: 夫唯:再見(jiàn)了百度SEO!

2025年1月正式啟動(dòng)Google SEO培訓(xùn)課程,一千零一夜帶領(lǐng)大家一起出海。

感興趣的同學(xué),請(qǐng)?zhí)砑诱猩头∧⑿牛簊eowhy2021。 微信掃碼添加客服人員

Processed in 0.779242 Second , 326 querys.