如何删除搜狗收录的内容

搜狗搜索引擎优化指南

1、如何让我的网页不被搜狗收录?

搜狗严格遵循搜索引擎 Robots 协议,详细内容,参见 http://www.robotstxt.org/

可以设置一个 Robots 文件以限制您的网站全部网页或者部分目录下网页不被搜狗收录。

如果您的网站在被搜狗收录之后才设置 robots 文件禁止抓取,那么新的 robots 文件通常会在 48 小时内生效,生效以后的新网页,将不再建入索引。

需要注意的是,robots.txt 禁止收录以前搜狗已收录的内容,从搜索结果中去除可能需要数月。若您急切需要删除,可以通过删除快照或死链提交告知搜狗您所需要删除的内容。

删除快照支持单个页面删除,并且需要提供相应的证件,核实情况属实则予以删除。

死链提交只删除死链,不存在的页面。

2、为什么我的网站内一些不设链接的私密性网页,甚至是需要访问权限的网页,也会被搜狗收录?

首先站长们要了解,sogou spider 对网页的抓取,是通过网页与网页之间的链接实现的。网页之间的链接类型,除了站点内部的页面链接(内链)之外,还有不同网站之间的互相链接(外链)。因此,某些网页即便通过您的网站内部链接无法访问到,但是,如果别人的网站上有指向这些页面的链接,那么这些页面还是会被搜索引擎所收录。

搜狗 Spider 的访问权限,和普通用户是一样的。之所以看上去某些访问权限限制内容被搜狗收录,原因可能有两点:

① 该内容在 Spider 访问时是没有权限限制的,但抓取后,内容的权限发生了变化

② 该内容有权限限制,但是由于网站安全漏洞问题,导致用户可以通过某些特殊路径直接访问。而一旦这样的路径被公布在互联网上,则Spider 就会循着这条路径抓出受限内容。因此也提醒站长们及时的修补网站安全漏洞。

注:摘录于《搜狗站长指南》

仅作为搜狗站长指南使用

任何未经允许将此文档用于商业用途的行为将会受到相关法律处罚

出处:搜狗站长帮助