<返回更多

搜索引擎算法:谷歌算法

2019-10-30    
加入收藏
随着互联网信息的爆炸式增长,搜索引擎为了不断提高用户查询效率与反馈信息的质量度,对自身算法进行不断地调整与升级。在过去的几年间,主流搜索引擎对自身算法进行了数次重要调整与升级,重点在于打击各种违反搜索引擎友好度原则、有失公平性和质量性准则的作弊行为。接下来重点向大家介绍几个算法,包括TrustRank算法、BadRank 算法、谷歌熊猫算法、谷歌企鹅算法、百度绿萝算法、百度石榴算法等。

 

TrustRank 算法

  TrustRank汉译为“信任指数”,TrutRank 算法是近年来比较受关注的基于链接关系的排名算法,其目的是从互联网中筛选出优质的网页(质量较高的网页)。

搜索引擎算法:谷歌算法

TrustRank算法

 

  TrustRank算法基于一个基本假设: 质量好的网站基本不会去链接质量差的网站,反之则不成立。也就是说,质量差的网站很少链接到质量好的网站这句话并不成立。恰恰相反,很多垃圾网站反而会想尽一切办法链接到高权威、高信任指数的网站,试图以此来提升自己网站的信任指数。

  基于这个假设,如果能挑选出可以百分之百被信任的网站,那么这些网站的TrustRank评分最高,而这些TusRank评分最高的网站所链接的网站信任指数将会被稍微降低,但还是很高,同时,第二层被信任的网站所链接出去的第三层网站,信任程度将会继续降低。由于各种原因,质量高的网站难免会接到一些垃圾网站:不过距第层网站点击距离越近,所传递的信任指数就越高,其他网站的信任程度将依次降低,也就是说高第层网站距离越远,就越有可能被判定为垃圾网站。

 

BadRank 算法

  如果该网页与一个不可信任或有作弊行为的网页之间存在链接关系,那么该网页也有可能存在作弊行为。与ThusRank 算法相反,BadRank算法的主要目的是从互联网中筛选出质量低下的网页。

  BadRank算法与TustRank算法的工作原理极其相似,首先是确定一批不可信任的网页集合(网页黑名单),再通过网页与不可信任网页间的链接关系及链接距离来计算网页的不信任值,从而确定某个网页是否为不可信任网页。

 

谷歌PageRank

搜索引擎算法:谷歌算法

 

  PageRank即网页排名(又称网页级别,简称PR,google左侧排名或佩奇排名),是一种根据网页之间相互的超链接计算的技术,Google用它来体现网页的相关性和重要性,也是我们在搜索引擎优化操作中经常被用来评估网页优化成效的因素之一。

  PageRank是一种投票机制,通过网络浩瀚的超链接关系来确定一个页面的等级,用于衡量特定网页相对于搜索引擎索引中其他网页而言的重要程度。Google把从A页面到B页面的链接解释为A页面给B页面投票,Google会根据投票的来源(甚至是来源的来源,即链接到A页面的页面)和投票目标的等级来决定新的等级。简单来说,一个高等级的页面可以帮助提升其他低等级页面的等级(这是我们需要交换友情链接及发布外部链接的原因)。

搜索引擎算法:谷歌算法

PageRank

 

 

  谷歌把PageRank的级别定义为0~10, 10为满分。PR值越高说明该网页越受欢迎。例如一个网站PR值为1,表明这个网站不太具有流行度,而PR值为7~10则表明这个网站非常受欢迎(或者说极其重要)。一般 PR值达到4,就是一个不错的网站 了。Google 把自己的网站的PR值定为9,这说明Gogle网站是非常受欢迎的,也可以说这个网站非常重要。

 

谷歌HillTop算法

  HillTop算法的指导思想与PagRank 是一致的, 都是通过网页被链接的数量和质量来确定搜索结果的排序权重。但HillTop认为只计算来自具有相同主题的相关文档链接对于搜索者的价值会更大,即主题相关网页之间的链接对于权重计算的贡献比主题不相关的链接价值要更高。比如,我们的网站是介绍“服装”相关内容的,有10个链接都是从“服装”相关的网站(如布料、布艺等》链接过来的,那么这10个链接比另外10个从“机械”“化工” 相关网站链接过来的贡献要大。

  HillTop算法实际上是拒绝了部分通过随意交换链接的方法来扰乱Google排名规则而得到较好排名的做法。

 

谷歌熊猫算法

搜索引擎算法:谷歌算法

熊猫算法

  谷歌熊猫算法是Google公司2011年推出的一种反垃圾网站的搜索引擎算法,旨在降低低质量内容的网站排名,同时是Google的网页级别评判标准之一。 我们可以简单地将熊猫算法理解为反垃圾网站。

  谷歌熊猫算法主要依据是点击、页面内容和链接,只要这三种表现优异,就不会列为垃圾网站。

 

谷歌企鹅算法

搜索引擎算法:谷歌算法

企鹅算法

  谷歌企鹅算法于美国时间2012年4月推出,是谷歌继2011年2月发布的“熊猫算法”之后再次推出的新算法。其目的是打击那些通过过分seo手段来提升排名的网站,意在降权那些充斥着广告的网站。随后,谷歌开始惩罚“过度优化”的网站,降低这些网站的排名,并鼓励那些使用白帽技术的优化工程师。

  对于这次谷歌针对过度优化的惩罚算法,虽然对于外贸行业来说是一个打击,但正是谷歌算法的不断完善,不断净化互联网信息,让我们这些做白帽SEO的更有发展潜力,这也体现了谷歌的公平性。只要我们严格遵守搜索引擎的算法规则,不使用黑帽手法、不作弊、避免关键词堆砌及不随机插入不相关的链接等,我们一样可以获得很好的排名。

 

  1. 避免关键词堆砌:在更新网站内容时不要刻意添加关键词,保持自然,密度在2%~8%即可;
  2. 坚决不使用黑帽手段:如页面伪装、PR劫持等;
  3. 避免重复内容:尽量多地提供原创内容,即便是伪原创也定要手动修改,这样质量度更高,切不可借助工具进行内容的批量创建或伪原创;
  4. 避免垃圾链接:外链在质不在量,每天合理地添加高质量链接。

 

谷歌猫头鹰算法

搜索引擎算法:谷歌算法

猫头鹰算法

  谷歌官方博客于2017年4月发帖,宣布推出“猫头鹰”算法 ,提升权威度高的页面的排名,降低低质量内容排名,尤其是查询词结果可能返回前面列出的几种潜在问题内容时。“猫头鹰”是谷歌内部的代码名称,准确地翻译应该是“猫头鹰项目”,在SEO行业,称为猫头鹰算法或猫头鹰更新更容易理解。

  猫头鹰算法的产生原因是谷歌搜索面临一类以前比较少见的问题,虚假新闻内容是源头,进而带来一系列相关问题,如编造的假新闻,带有极度偏见、煽动仇恨的内容谣言,阴谋论类内容,冒犯性、误导性内容等。

  这类问题被用户看到、搜索得多了,就会影响搜索框显示的查询词建议,进一步带来更多搜索,一步步放大效应。

 

  1. 建议在搜索框的右下角加上一个“举报不当的联想查询”按钮,用户看到宣扬仇恨的、色情的、暴力的、危险的内容时,可以举报;
  2. 在精选精要下面加上反馈按钮,作用和搜索建议的举报按钮一样, 精选摘要偶尔会犯敏感错误;
  3. 最重要的是提升高权威页面排名,降低低质量页面排名。
声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>