搜索引擎的蜘蛛一直訪問網(wǎng)站已經(jīng)刪除的死鏈改如何處理?




網(wǎng)站有時候因為出現(xiàn)木馬,被掛了很多違法的外鏈,等網(wǎng)站的管理員檢測和刪除這些黑鏈后,查看網(wǎng)站的訪問日志,發(fā)現(xiàn)搜索引擎的蜘蛛依舊很很頻繁的抓取這些死鏈,這種情況改如何處理呢?
如下圖所示:
這種情況可以用下面的2中方法:
1.去搜索引擎的站長后臺,主動提交死鏈。
2.利用robot.txt文件主動disallow這些死鏈。
網(wǎng)站有時候因為出現(xiàn)木馬,被掛了很多違法的外鏈,等網(wǎng)站的管理員檢測和刪除這些黑鏈后,查看網(wǎng)站的訪問日志,發(fā)現(xiàn)搜索引擎的蜘蛛依舊很很頻繁的抓取這些死鏈,這種情況改如何處理呢?
如下圖所示:
這種情況可以用下面的2中方法:
1.去搜索引擎的站長后臺,主動提交死鏈。
2.利用robot.txt文件主動disallow這些死鏈。