概括前面的观点,我们可以说,当使用 JavaScript 注入重要链接时,存在内部链接建设陷入困境的风险。如果某些页面只有一个以这种方式生成的链接作为传入链接,则存在 Googlebot 永远无法访问它们、抓取它们并将它们编入索引的真正风险。
这种可能性比人们想象的更常见:尤其是在电子商务 秘鲁客户电子邮件列表 领域,使用 JavaScript 上传评论、评论、相关和建议产品,或使用 JavaScript 管理长产品列表的上传的做法非常普遍。通过这种方式,您将面临 Googlebot 看不到数十个产品页面以及影响页面排名的其他元素的风险。
产品页面针对特定查询进行定位的情况并不罕见:因此,存在的风险是失去高转化率搜索的良好潜在定位。
同时,JavaScript 对于提高页面性能具有不可估量的价值:因此,有必要在每种具体情况下始终找到JavaScript 的使用和搜索引擎机器人的可访问性之间的最佳折衷方案。
#3 捆绑或不捆绑
通常,最好将所有 JavaScript 文件合并到一个文件(捆绑包)中,以限制每个单独文件对服务器的请求,从而减少页面加载时间。但是,太大的捆绑包可能会过重,从而存在 Googlebot 无法在抓取预算规定的时间内下载它的风险。
那么:是使用单个较重的文件更好,还是使用许多较小、较轻的文件更好?答案并不唯一,必须根据具体情况进行评估。出发点是了解 Googlebot 是否可以下载该捆绑包。稍后我们就会明白,我们就快到了。 ?
#4 有限的预算爬行
我们已经看到抓取预算对于允许 Googlebot 执行所有 JS 脚本(至少是所有那些不是由特定用户操作触发的脚本)来说是多么重要。如果您的网站不是很权威,或者非常大且页面较多,那么 Google 很可能会投入不足的抓取预算来下载每个页面的所有内容。
抓取预算和 javascript:seo 最佳实践
还有可能产生恶性循环:看到页面上的内容很少,谷歌认为不适合在网站上投入大量的抓取预算。因此,他永远不会看到 JavaScript 注入的内容,并将继续认为该网站权限较低。
#5 基本 HTML 和最终 HTML 之间差异太大
由于已经部分消失但仍然有效的历史原因,Google 不喜欢使用 JavaScript 或 CSS 大量修改基本 HTML 的网站,因为过去这些语言被用来让机器人看到“更优化”的版本页面(可以这么说)比用户实际可见的页面。