设置了 robots.txt
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /
User-agent: *
Disallow: /
没用,照样收录。Nginx 中禁止了搜索引擎的 User-Agent:
if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Feedfetcher-Google|Yahoo! Slurp|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot|ia_archiver|Tomato Bot")
{
return 404;
}
两周过去了,没用,还是收录,此时所有其他搜索引擎都停止了收录。
甚至直接举报了网站,一直显示处理中,没有结果。
为什么百度像狗皮膏药一样恶心?到底怎么才能禁止百度收录网站?
1
Yourshell 324 天前
黑名单不行就白名单
|
2
lingeo 324 天前
https://help.baidu.com/question?prod_id=99&class=470&id=3009
如何撰写页面就完全没内容了。 |
3
opengps 324 天前
主动去百度站长收录平台提交下就行
|
4
SkywalkerJi 324 天前 2
发一些政治内容。
|
5
lovezww2011 324 天前
可以根据 url 做判断,如果是来自百度的流量,直接 301 跳转到其它网站
|
6
lifei6671 324 天前
发一些涉政和某功文章。😂
|
7
vueli 324 天前
#6 楼说的对
|