<kbd id='sodjgw'></kbd><address id='zffari'><style id='rlfyzl'></style></address><button id='dbnrne'></button>

          当前所在位置:百度优化 > 注册送68元体验金优化新闻 > 优化最新动态 > > > 详细页面

          SEO发现在你的服务器日志,2部分优化Googlebot

          发布日期:2013-8-1 13:22:53 转载请写上本文链接地址:(www.bolin.org.cn

          这是一篇我几个月前写的,超过部分为什么服务器日志文件是你的SEO工具技术的一个关键部分基础追踪。在这篇文章中,我提供更多的细节在格式化数据在Excel中为了找出并分析Googlebot爬行的seo优化机会。
          挖掘日志之前,了解Googlebot抓取您注册送68元体验金的基础是很重要的。有三个基本因素,Googlebot认为。首先是这页应该爬。这是通过如反向点数量因素决定一个网页,注册送68元体验金的内部链接结构,数量和内部链接指向的网页和其他内部的信号强度,如注册送68元体验金地图。
          其次,确定多少网页Googlebot爬行。这是通常被称为“爬行的预算!罢馐亲钣锌赡芸悸窃に惴峙渑佬辛煊虻娜ㄍ托湃,因素的性能,加载时间,和干净的爬行路径(Googlebot陷入你无尽的面搜索环花费他们的钱)。在爬行的预算的更多细节,看看伊恩Lurie的文章。
          最后,率多频繁Googlebot爬行回来-是怎么确定的经常更新注册送68元体验金内容,该域的权威,并引用,新鲜社会提到,和链接。
          现在,让我们来看看如何Googlebot爬行www.168tzgs.cn(注:我分析的数据是从seo.bolin.org.cn到我们的注册送68元体验金迁移之前blog.bolin.org.cn。一些潜在的问题,我指出以下是目前解决。哇哦。。第一步是日志数据到一个可行的格式。我详细解释了如何在我的最后一个服务器日志后做这个。然而,这一次一定要包括与URL参数,我们可以分析的爬行路径。只要确保下面的框中输入你的日志文件时不。
          我们要看的第一件事就是在注册送68元体验金上花费的时间和Googlebot奉献最多的资源。现在你已经出口到你的日志文件。CSV文件,你需要做一点数据的格式和清洗。
          1。保存文件与Excel的扩展,例如。xlsx
          2。除了删除网页/文件的所有列,响应代码和用户代理,它应该是这个样子(格式为表可选择您的数据和^过):
          3。隔离从其他蜘蛛爬虫通过创建一个新的专栏写一个公式,搜索“爬虫”在第三列中的细胞。
          4。擦洗页/文件列为顶级目录,所以我们可以以后运行数据透视表看哪一部分是最谷歌爬行
          5。自从我们离开参数为URL检查抓取的路径,我们要想删除它,这样的数据包括我们在数据透视表中的顶层目录分析。URL参数总是始于”?“那么,这就是我们要寻找在Excel中。这是一个小技巧,因为Excel使用问题标记字符作为通配符。为了表明对Excel,问题是字面上的标记,用前一个字符,像这样:“~?”
          6。数据现在可以在数据透视表(数据透视表分析>)。与目录相关的数次Googlebot总数的要求在日志文件的时间,在这种情况下一天。
          谷歌抓取预算分配是正确的?我们可以深入这几种不同的数据:
          8.在谷歌的爬行预算的70%集中在三个部分,同时有超过50%的走向/ QA /和/用户/。莫桑比克应该从谷歌分析搜索推荐数据看多少有机搜索值这部分提供了。如果是低得不成比例,爬行或网页优化管理策略应考虑改善。
          9.另一个潜在的洞察力从这个数据是/网页强度/,一个URL用于张贴数据为莫桑比克的工具,正在爬近1000倍。这些爬行是最有可能从指向MOZ的工具的结果的外部链接引发。建议将排除该目录使用robots.txt文件。
          10.在光谱的另一端,它是了解很少的目录重要爬。有部分正在爬?让我们在几个MOZ的外观:
          在这个例子中,目录/研讨会为谷歌弹出没有得到足够的关注。事实上,只有顶级目录正在爬,而实际的课程内容页被跳过。
          这些只是几个例子,爬行资源问题,可以发现在服务器的日志。一些额外的问题寻找包括:
          11.是蜘蛛爬行的页面是排除在外的robots.txt文件?
          ?蜘蛛抓取页面都应该被排除在robots.txt文件?
          12.某些部分消耗了太多的带宽?什么是页面的数量比爬在一段所需要的带宽量吗?
          作为奖励,我做了一个屏幕用于格式化和分析Googlebot爬行上述过程。
          在我的下一篇文章在分析日志文件,我将更详细地解释如何确定的趋势随着时间的推移,重复的内容,看。随时分享您的想法在下面的评论和问题!
           

           

               满网排名烦,一把辛酸泪。都云优化难,谁解其中味!杜琶,优化难》