现在检查 Google 的页面缓存后

Your go-to forum for bot dataset expertise.
Post Reply
rakibhasanbd4723
Posts: 147
Joined: Sun Dec 22, 2024 8:28 am

现在检查 Google 的页面缓存后

Post by rakibhasanbd4723 »

“对于不再有效的链接,网站站长工具中生成的链接示例是作为我们抓取管道的一部分自动创建的。当我们检测到页面上的变化时,这些链接将自动作为示例 URL 退出。同样的概念也适用于现在为 404 页面的页面上的链接 - 我们会随着时间的推移自动检测这些链接。”

我给了他们这个具体的例子:这是一个停放域名页面。忘记 Google 声称他们有针对此类页面的“检测器” 这一事实吧。让我们从删除工具的角度来看待它。

Google 于 4 月 3日 发现了该页面。我试图在 7 月将其删除。8 月,我在重新审核请求电子邮件中明确告知 Google 此 URL 以及类似 URL 的问题。他们说它会被删除。现在是 11 月,该链接位于我当前的下载最新链接报告中。

重定向也会发生同样的情况,但你明白我的意思。我有成千上万个这样的 URL。我手动检查了每一个。它们并不存在,但 Google 说它们存在。

ROBOTS.TXT 拒绝:

这是移除工具的一个主要问题,而且是 哥斯达黎加电话号码列表 双重的。您不仅无法移除这些链接,而且您的竞争对手还可以利用这些类型的链接对您造成 SEO 方面的负面影响。链接:​该页面不存在。

将 URL 输入工具后,我得到了以下信息:
哇哦!成功了!我点击了“是的,删除此页面”,我想我成功了。但第二天,我发现 Google 拒绝了这个请求。原因是什么?

等等,什么?这个页面不是已经被删除了吗?我知道。根据上面的两个截图,Google 也知道。虽然我给出的例子来自一个死站,但活动网站也会受到 Robots.txt 拒绝的影响。许多 Web 2.0 站点 URL 都会从删除工具中返回此特定拒绝。一旦您浏览完第一页或类似“即将推出的热门”页面,Google 就会向您发送拒绝。出于某种原因,他们无法从更深层的页面中删除链接,因此这对负面 SEO 来说是一个非常真实且可怕的可能性。
Post Reply