网站被黑生成大量xx网址被收录,全部 404,无法整理所有网址且网址结构不规则,遇到这个情况都怎么处理 ?
已经收录的话,site 后,将所有收录的可以提交 404 ,然后 robots 禁止百度爬取目录,然后正常更新。这种情况会造成非常严重问题,百度后续不会收录,需要慢慢养,以前秒收,现在周收。
一定要能整理尽量整理,然后做一个 404 页面,告诉蜘蛛已删除,只能等蜘蛛慢慢爬取
在处理之前也要仔细检查为什么会被黑?网站要好好检查一下,扫一下有没有什么后门之类的,不行就找个专业的人来处理。
其实不只是网站被黑,就是我们日常网站如果被搜索大量xx信息也会被收录,在 Google search Console 中的被索引页面中就可以看到这些被索引的页面,特别是一些流量相对较大的站,一旦被收录,必然会被搜索引擎注意,严重的降权,所以一定要在 robots 禁止搜索引擎爬取搜索结果。
robots.txt 文件可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。不过一些搜索引擎并不会遵守这个规则。