谷歌:我们的重复检测和聚类是稳定的

谷歌:我们的重复检测和聚类算法(92)由Barry Schwartz|在谷歌搜索引擎优化下提交Prev Story Next Story推文分享Prev Story Next Story

,谷歌的首席搜索排名工程师Paul Haahr在推特上说,谷歌的算法在搜索结果中的重复检测和聚类没有太多变化。他说:“随着时间的推移,我们对代码进行了改进,包括重复检测。”“但这几年来基本保持稳定,”他补充说。下面是他的推文:

@ajkohn @methode .@ajkohn @methode显然,随着时间的推移,我们对代码进行了改进,包括dup检测。但这几年来基本都很稳定。

我们已经报道了自2007年以前谷歌搜索结果中围绕聚类和重复检测的许多未确认的变化,以及一些在2012年和可能在2014年确认的变化。

我还没有看到人们过多地讨论谷歌如何过滤和聚集这些结果。这是有道理的,因为谷歌的保罗说他们在“多年”里真的没有什么变化。来自谷歌的

Gary Illyes碰巧也发布了一个DYK,解释说很少看到来自同一个域的两个结果。但如果你这样做,那是因为其他网站的质量极低。下面是Gary的推文:

DYK通常当你在SERP中看到来自同一站点的超过2个结果时,那是因为其他结果的得分要低得多吗?pic.twitter.com/Bz4DPaR8PC

– Gary Illyesᕕ(ᐛ)ᕗ(@methode) 2017年3月30日

论坛在Twitter上讨论。