先进的技术SEO是SEO中最受守卫的技术之一。虽然有许多文章张贴了这个话题,但很少潜入受试者的潜水并充分探索。

在本文中,我将向您展示如何将您的技术从常规到高级和揭开神秘的高级SEO领域背后的帷幕

我们的高级SEO技术基于与当今顶级品牌一起与专家SEO和数字营销从业者一起工作的多年经验,以揭示常用的方法。

笔记:如果您希望开始使用您的第一个网站审核或者您可以一起使用新的网站审核,我建议您下载我们的免费16步搜索引擎优化审计检查表,完成简单易懂的任务,让seo遵循。

下载清单

我们还将审核如何利用我们的企业SEO平台来解决索引,可访问性,搜索意图和爬网错误,并识别其中一些更先进的技术,以添加新技能提升您的技术审核

(注意,对于这次步行,我将使用我们的套房SeoClarity中的技术SEO能力.)

#1。索引

设置重复爬行

网站很少在长时间内保持静态——频繁地添加新页面、技术功能更改和其他更新,增加了出现新错误和问题的可能性。再次发生的爬网帮助您提出错误和监控进度,这也创建了向执行团队报告有机流量的基准(并监控任何技术错误)。

我总是建议我们的客户在深入研究审计数据之前,先确定一个固定的审计时间表。

这样,他们就可以在每次SEO审计之前和之后监控进度。

如果您的组织定期添加新功能或更新网站,请设置审核以与开发计划重合。否则,将根据您的团队的内部开发变更率,安排每周,双周期或每月发生。

在我们的指南中企业站点抓取,我们提供类似于爬行深度和参数的内容的建议,以免放慢整体站点速度。

首先爬行

第一个爬网很重要,因为它设置了基准,以评估您对网站所做的任何更改和更新的效果。

crawl1.png.

此外,基准数据将在这些其他方式帮助您:

  • 向您的执行团队展示您正在进行的进展,从而改善该网站
  • 针对您的透视团队定位持续的发展问题
  • 允许初始性能基准标记,以便您可以设置警报以通知您的团队任何更改

XML网站地图爬行

当你的站点上有一个新页面时,理想情况下,你希望搜索引擎能快速找到它并建立索引。一种帮助实现这一目标的方法是使用XML站点地图并通过Google和Bing提交它。

启动爬网程序时,安排一个单独的审计以评估您的XML站点地图。虽然第一个爬网将有助于在整个站点中查找任何错误,但爬行XML站点可以确保XML站点地图中包含的所有URL都是新鲜的,进一步确保搜索引擎可以识别和索引您最重要的页面。如果找到服务器错误(不是2xx状态),则此过程允许您快速识别这些错误。

重要的是XML站点地图必须是最新的,并且包含所有相关的url。识别XML站点地图中的错误可以帮助您发现设计中的任何障碍、内部链接和需要解决的错误。

crawl2-1.png

特别是,重点是在网站地图爬网中识别这些问题:

  • 页面与200以外的状态URL
  • 规范不匹配URL.
  • 抓取的页面数量和站点上的页面数量不一致。
  • 指数问题,特别是站点地图上的页数与谷歌索引中的页面数。以前你能够获得一个非常准确的数字“网站:域名搜索(见下面的SERP图像),但多年来谷歌开始隐藏索引页面的实际数量。一种解决方案是检查谷歌的索引状态报告中提供的索引url的数量。高级用户也可以参考本文所写Paul Shapiro在如何使用R脚本语言更准确地阅读您当前索引的大部分网站。您还可以使用本报告中的Bot Clarity组合数据。

crawl3-1.png.

诊断爬行

在seoClarity,我们也有能力抓取你的网站,以确定具体的,更先进的技术问题。诊断抓取帮助您识别问题,包括从外部源和第三方资源导入的内容无法加载或不可访问。有许多错误用例,每个用例都是特定于您的站点的。

  • seoClarity的内置履带允许用户通过XPath,CSS,特定的div_id和div_class爬网。这对于寻求诊断特定错误的从业者是有用的。例如,我们的客户端在整个站点上发起新内容,并通过内容传递网络或CDN加载内容。随着内容从CDN加载到站点页面中,很明显存在问题,随后受到了排名。额外的内容块是由特定的
    标记识别的。这允许我们创建爬网并确定包含
    标记的页面和哪些页面没有。
  • 利用履带者的关键是确保开发团队还遵循这些最佳实践,并将属性标识为新项目添加到网站。正如您正在执行审核,您将希望在启动的项目中归零,并确保这些项目遵循最佳实践。

crawlprojectsetup-1

例如,如果您的网站或页面未索引,则最常见的罪魁祸首是页面或页面上使用的元机器人标签robots.txt文件中不当使用。我们的爬网程序有一个设置,允许爬虫遵守robots.txt文件,以了解页面是否被错误阻止。

如果站点上的页面或目录被禁止,它将出现在robots文件中的Disallow:之后。例如,如果我不允许我的登陆页文件夹(/lp/)使用我的robots文件进行索引,这将阻止任何驻留在该目录中的页面被搜索引擎编入索引。

我们也收集了机器人元标签识别问题,比如当一个站点向页面添加了一个无索引标签,但却打算被索引。例如,您可以告诉搜索引擎整个页面上的链接不应该被跟踪。这将确保你限制你的爬行预算,只有最重要的页面,你想要索引。

我们有客户未指数由于将NoIndex标记添加到内容,因此其网站的整个部分。具有此功能爬行以及设置警报允许我们的客户端通知,以便内容不会获得未索引和它们想要显示的内容变为索引。

可能是最常用于SEO的两个指令是NoIndex /索引的外观和nofollow /遵循。默认情况下暗示的索引/遵循表示搜索引擎索引机器人应索引此页面上的信息,并且搜索引擎索引机器人应在此页面上进行链接。noindex / nofollow表示搜索引擎机器人不索引页面上的信息,搜索引擎索引机器人不应遵循此页面上的链接。

既然您拥有所有基准数据,您都使用了清晰度审核来诊断任何问题,并且您将想要评估您的网站的可见性的清洁抓取性。

# 2。评估的可见性

最重要的SEO策略之一是确保用户可以访问您的网站和网站中的内容,从而提供可能的最佳体验(这反过来又确保了搜索引擎对您的内容进行索引的可访问性)。尽管这可能是最重要的策略,但往往也是最难执行的策略。

当爬虫找到网页时,谷歌的系统呈现页面的内容,就像浏览器一样。我们的软件可以模仿GoogleBot并分析页面以确定将阻止其访问或索引页面的问题。如果我们的爬虫无法访问您的网站,我们的团队将确定导致块的错误,以便您可以确定这些页面。

搜索可见性随时间变化。使用高级排名分析在Seoclarity中,您可以在特定时间段内深入进入排名因子的转变。将分析集成在一个集中位置的完整图片中。

诊断页面

高级从业者利用Seoclarity来诊断他们的网站可能具有可访问性和分度的任何问题。数据集显示排名页数和页面排名中的任何减少。您还可以通过特定的URL类型过滤以标识正在受到影响的页面类型。这节省了时间并允许从业者快速识别问题。

排名pages_researchgrid.

错误页面

下一个,搜索您的网站以获取触发错误服务器代码或重定向的页面,并评估为什么。如果可能,请更正重定向或修复服务器问题,导致页面无法访问。

sitehehealth_status.

我们建议您回顾我们之前的博客帖子执行网站审核确定其他区域以快速监控。

#3。评估搜索意图

谷歌最近发布了其他数据搜索意图随着谷歌搜索变得更加精细,优先意图比以往任何时候都更加重要。高级技术人员希望根据意图划分页面,并创建专门满足用户意图的页面。

手动评估SERPS以获得查询的底层意图是不可扩展的。

seoClarity的内容融合允许您查看页面并确定哪些页面是“信息”,“事务性,”“导航”或“本地”的搜索。
搜索意图内容融合

高级从业者根据意图创建所有关键字和页面周围的页面标签和关键字标记。这将分离需要额外内容与需要显示产品页面的页面的页面。一旦定义,在优化特定搜索意图周围的内容中,并且还快速识别错误URL为特定搜索项显示错误的零。

#4。消除爬网预算问题

搜索引擎爬虫在分析您的网站的时间有限。任何潜力克拉布性错误将浪费爬网预算并防止它们访问您的一些内容。

投入部分审计,以消除履带式障碍,以充分利用您的可用预算。Seoclarity为此提供了两个不同的功能。

机器人清晰度监控搜索引擎机器人如何通过以下方式抓取你的网站:

  • 如果抓住您的网站存在挑战,谷歌将存储要重新审视的URL。
  • 根据我们与客户合作的经验,Google将存储和重新审视URL大约4-5次以收集有关URL的信息。
  • 机器人清晰度允许您通过页面类型识别问题,查看对单数URL或URL的访问频率。
检查机器人分析网站的深度。如果他们在到达最低级别之前停止爬行,更新链接以缩短他们到通常省略的内容的路径。

Botclarity.png.

同样,机器人清晰度也允许您识别欺骗机器人活动,并阻止这些爬行器进食带宽。

推荐阅读:SEO爬行预算:监控、优化和保持领先

清晰度审计C一个用来模拟一个特定的机器人,并确定是什么问题特别阻止他们访问爬行预算范围内的所有站点。

这爬行可能揭示的一些问题包括:

  • 破碎的内部链接
  • 长重定向链条
  • API调用出局
  • 无法访问的内容
  • txt文件中的错误阻止了机器人访问特定的部分

# 5。内部链接

我经常惊讶于SEO给予的一点内部链接

内部链接提供了一个令人难以置信的机会,可以在搜索结果中提高可见性。它们不仅可以帮助搜索引擎爬网站,而且他们还可以让您与搜索引擎进行通信,您希望页面排名的关键字。更不用说福利内部链接带给最终用户!

站点审核工具通常会评估内部链接的许多问题。例如,清晰度审计将告诉您:

  • 什么页面没有内部链接
  • 哪些人有太多
  • 这些链接是否指向缺少的URL
  • 以及这些链接还会出现什么问题(例如,使用相对引用)。

crawl9.png.

您还可以抓取内部链接以发现任何错误并在网站上快速更新。

有这样的洞察力,您可以:

  • 更新任何丢失或损坏的内部url
  • 更换损坏的链接并提高粘性性
  • 确保链接在页面之间传输值
  • 改善现场分类和爬网预算使用

#6。识别Ajax或沉重的JavaScript中的错误

多年来如何处理AJAX和JavaScript的改变。过去,谷歌拥抱了“?eScape_fragment_”的使用,现在网站正在报告该页面正在解除索引,仍然利用Ajax站点上的转义片段。随着越来越多的网站转向Ajax或沉重的JavaScript,先进的技术从业者需要尽快发现并识别错误,或者作为我的同事,理查德查韦斯在文章中争论在SEO拥抱JS

如果有一种编程语言,您只需拥抱作为SEO,这是JavaScript。“

一个高级审计软件,如清晰度审核,可以爬网Ajax和JS有助于诊断错误。如果您的网站正在使用预渲染,则立即查找,如果是,请在此过程中添加预渲染URL以执行站点爬网。这样,您可以评估渲染与现场渲染的问题。

类似地,use可以利用谷歌搜索控制台中的Fetch来分析呈现JS的代码,这与搜索引擎看到的完全一样。如果有组件没有出现,那么创建一个爬行器可以帮助分析它们没有出现的原因,并发现解决方案。

crawl10.png

#7。在您的网站审核中包含新技术

上述方法是先进技术从业者报告的一些最常用的技术,但总有更多的技术可以学习提供更强大的正在进行的现场审计过程。本文提供了额外的技术,以更好地了解如何快速识别错误和持续搜索可见性,以了解消除以最大限度地提高搜索引擎内的潜力的问题。

这些工作流程还为您的客户提供最佳的用户在访问您的网站时实现。如果您有额外的高级技术SEO方法或建议,请在下面的评论中提供详细信息。我们很乐意在即将到来的帖子中。