搜索引擎算法大汇总

  • 内容
  • 评论
  • 相关

随着互联网信息的爆炸式增长,搜索引擎为了不断提高用户查询效率与反馈信息的质量度,对自身算法进行不断地调整与升级。在过去的几年间,主流搜索引擎对自身算法进行了数次重要调整与升级,重点在于打击各种违反搜索引擎友好度原则、有失公平性和质量性准则的作弊行为。

接下来重点向大家介绍几个算法,包括TrustRank算法、BadRank算法、谷歌熊猫算法、谷歌企鹅算法、百度绿萝算法、百度石榴算法等。

TrustRank 算法

TrustRank 汉译为“信任指数”,TrustRank 算法是近年来比较受关注的基于链接关系的排名算法,其目的是从互联网中筛选出优质的网页(质量较高的网页)。

TrustRank 算法基于一个基本假设:质量好的网站基本不会去链接质量差的网站,反之则不成立。

也就是说,质量差的网站很少链接到质量好的网站这句话并不成立。恰恰相反,很多垃圾网站反而会想尽一切办法链接到高权威、高信任指数的网站,试图以此来提升自己网站的信任指数。

基于这个假设,如果能挑选出可以百分之百被信任的网站,那么这些网站的 TrustRank 评分最高,而这些 TrustRank 评分最高的网站所链接的网站信任指数将会被稍微降低,但还是很高。同时,第二层被信任的网站所链接出去的第三层网站,信任程度将会继续降低。

由于各种原因,质量高的网站难免会链接到一些垃圾网站,不过距第一层网站点击距离越近,所传递的信任指数就越高,其他网站的信任程度将依次降低,也就是说离第一层网站距离越远,就越有可能被判定为垃圾网站。

BadRank 算法

Badrank 算法基于一个这样的假设:如果该网页与一个不可信任或有作弊行为的网页之间存在链接关系,那么该网页也有可能存在作弊行为。与 TrustRank 算法相反,BadRank 算法的主要目的是从互联网中筛选出质量低下的网页。

BadRank 算法与 TrustRank 算法的工作原理极其相似,首先是确定一批不可信任的网页集合(网页黑名单),再通过网页与不可信任网页间的链接关系及链接距离来计算网页的不信任值,从而确定某个网页是否为不可信任网页。

谷歌 PageRank

PageRank 即网页排名(又称网页级别,简称 PR,Google 左侧排名或佩奇排名),是一种根据网页之间相互的超链接计算的技术,Google 用它来体现网页的相关性和重要性,也是我们在搜索引擎优化操作中经常被用来评估网页优化成效的因素之一。

PageRank 是一种投票机制,通过网络浩瀚的超链接关系来确定一个页面的等级,用于衡量特定网页相对于搜索引擎索引中其他网页而言的重要程度。Google 把从 A 页面到 B 页面的链接解释为 A 页面给 B 页面投票,Google 会根据投票的来源(甚至是来源的来源,即链接到 A 页面的页面)和投票目标的等级来决定新的等级。

简单来说,一个高等级的页面可以帮助提升其他低等级页面的等级(这是我们需要交换友情链接及发布外部链接的原因)。

谷歌把 PageRank 的级别定义为 0~10,10 为满分。PR 值越高说明该网页越受欢迎。

例如一个网站 PR 值为1,表明这个网站不太具有流行度,而 PR 值为 7~10 则表明这个网站非常受欢迎(或者说极其重要)。一般 PR 值达到 4,就是一个不错的网站了。

Google 把自己的网站的 PR 值定为 9,这说明 Google 网站是非常受欢迎的,也可以说这个网站非常重要。

谷歌 HillTop 算法

HillTop 算法的指导思想与 PageRank 是一致的,都是通过网页被链接的数量和质量来确定搜索结果的排序权重。但 HillTop 认为只计算来自具有相同主题的相关文档链接对于搜索者的价值会更大,即主题相关网页之间的链接对于权重计算的贡献比主题不相关的链接价值要更高。

比如,我们的网站是介绍“服装”相关内容的,有 10 个链接都是从“服装”相关的网站(如布料、布艺等)链接过来的,那么这 10 个链接比另外 10 个从“机械”“化工”相关网站链接过来的贡献要大。

HillTop 算法实际上是拒绝了部分通过随意交换链接的方法来扰乱 Google 排名规则而得到较好排名的做法。

谷歌熊猫算法

谷歌熊猫(Panda)算法是 Google 公司 2011 年推出的一种反垃圾网站的搜索引擎算法,旨在降低低质量内容的网站排名,同时是 Google 的网页级别评判标准之一。

我们可以简单地将熊猫算法理解为:反垃圾网站,降低低质量网站的排名。

谷歌熊猫算法主要的判断依据是点击流(Clickstream)、页面内容(Page Content)和链接概况(Link Profiles),只要在这三者中表现优异,就不会被列为肤浅或劣质的网站。

从大量的分析来看,目前谷歌熊猫算法的适用级别为网页级别,并没有细化到关键词级别。同时一个网站内如果存在大量的低质量页面,将会对整个网站的评级造成影响。

对于作为站长或者 SEOer 的我们而言,如何保障自己的网站不被熊猫算法打击呢?

1) 获取信任

不要大量地复制粘贴别人的内容,或者伪原创,尽量保证自己网站的内容质量,即网站内容原创,具有可读性。

2) 培养权威

不要妄想为自己的网站增加大量的外部链接,外链的发布需要循序渐进,并且需要保证链接的自然性。

谷歌企鹅算法

谷歌企鹅(Penguin)算法于美国时间 2012 年 4 月 24 日推出,是谷歌继 2011 年 2 月 24 日发布的“熊猫算法”之后再次推出的新算法。其目的是打击那些通过过分 SEO 手段来提升排名的网站,意在降权那些充斥着广告的网站。

随后,谷歌开始惩罚“过度优化”的网站,降低这些网站的排名,并鼓励那些使用白帽技术的优化工程师。

对于这次谷歌针对过度优化的惩罚算法,虽然对于外贸行业来说是一个打击,但正是谷歌算法的不断完善,不断净化互联网信息,让我们这些做白帽 SEO 的更有发展潜力,这也体现了谷歌的公平性。只要我们严格遵守搜索引擎的算法规则,不使用黑帽手法、不作弊、避免关键词堆砌及不随机插入不相关的链接等,我们一样可以获得很好的排名。

针对企鹅算法,我们该如何应对呢?

1) 避免关键词堆砌

在更新网站内容时不要刻意添加关键词,保持自然,密度在 2%~8% 即可。

2) 坚决不使用黑帽手段

如页面伪装、PR 劫持等。

3) 避免重复内容

尽量多地提供原创内容,即便是微原创也一定要手动修改,这样质量度更高,切不可借助工具进行内容的批量创建或伪原创。

4) 避免垃圾链接

外链在质不在量,每天合理地添加高质量链接。

谷歌猫头鹰算法

谷歌官方博客于 2017 年 4 月 25 日发帖,宣布推出“猫头鹰”算法(Project Owl),提升权威度高的页面的排名,降低低质量内容排名,尤其是查询词结果可能返回前面列出的几种潜在问题内容时。

“猫头鹰”是谷歌内部的代码名称,准确地翻译应该是“猫头鹰项目”,在 SEO 行业,称为猫头鹰算法或猫头鹰更新更容易理解。

猫头鹰算法的产生原因是谷歌搜索面临一类以前比较少见的问题,虚假新闻内容是源头,进而带来一系列相关问题,如编造的假新闻,带有极度偏见、煽动仇恨的内容谣言,阴谋论类内容,冒犯性、误导性内容等。

这类问题被用户看到、搜索得多了,就会影响搜索框显示的查询词建议,进一步带来更多搜索,一步步放大效应。

猫头鹰算法主要包括三方面内容:
1) 建议在搜索框的右下角加上一个“举报不当的联想查询”按钮(如图1所示),用户看到宣扬仇恨的、色情的、暴力的、危险的内容时,可以举报。

举报不当的联想查询
图1:举报不当的联想查询

本文标题:搜索引擎算法大汇总

本文地址:https://www.hosteonscn.com/7631.html

评论

0条评论

发表评论

邮箱地址不会被公开。 必填项已用*标注