关于未来两三年的SEO趋势
1、未来两三年,人工智能可能全面影响SEO领域:
只有互联网公司才能实现的胜利
深度学习的意义在于实现“无人监督的学习”
深度学习系统应用于搜索会怎么样?
未来,系统将自己去思想,自已去琢磨哪些因素最终决定网站的质量
2、关键词相关性计算相对于传统的改变:
语义分析是一种相关性判断的新思路
它对未来的影响包括:写作方式,文章长度、内容深度
3、人工智能下的SEO,将促使网站不求大,而求内容强
4、在深度学习的逻辑下,未来体现用户体验的每一个环节,都可能被纳入SEO的判断因素。
第一,人工智能可能全面影响SEO
1、只有互联网公司才能实现的胜利。
上个月李世石和AlphaGo的围棋大战,李世石以1:4不敌人工智能的机器人。赛前预测时,多数言论认为机器胜算不大,包括棋圣聂卫平在赛前也认为电脑存在不可逾越的技术障碍,电脑完全无法战胜人脑。但当时我就在博客上写了有战胜的可能胜,因为谷歌所用的人工智能下棋原理跟我们通常所想象的下棋方法完全不一样。 当年IBM的电脑深蓝打败卡斯帕罗夫时,那时的算法和现在是不一样的。国际象棋可以用穷举的暴力算法来计算每一步的后续可能性。而围棋的困难在于不可能进行穷举,对美一种可能性进行计算的话,其可能性超过全宇宙的原子数量。
另外,象棋每个子有相对容易赋值的子力,车马炮都各自有规定的走法和优势。但围棋不一样,棋手落的每一个字可能是废子,可能被提掉,但也可能随着棋局变化变成手筋,因此没法对它的每一个子赋值。 那么,它是怎么完胜了人类的?为什么是Google,而不是传统的科技公司?因为当今最高端、最复杂的计算系统是在百度、Google,基本上只有互联网公司才有这个能力完成这种计算。
AlphaGo的算法分为两部分:
一是Policy network,即落子部分,删选出有利但有限的地方来落子;另一种则是Value network,对局势进行判断的系统。判断当前的棋局形势如何,它不是按既定的围棋规则,也不是按人类棋手的技术去的,而是将历史上过往巨量棋局输入服务器,系统知道每盘棋的所有过程和最终谁胜利,因而人工智能系统在实战时计算的是大数据支撑下某种局势下胜率是多少。局势判断系统才是AlphaGo决胜的关键。这就是深度学习带来的。
2、深度学习的很大意义在于实现“无人监督的学习”。
有监督的学习,是事先人为设定决定因素。比如我要建立一个厦门房价计算系统,我可以会输入面积、价格、朝向、区域等我们认为相关的因素,然后系统会根据这些计算出规律。未来,当我给出相应的条件,系统就能预测出房价。 无人监督的深度学习下,你只需告诉系统大量数据,不需要告诉系统结果由什么因素决定,让系统自己去学习。系统学习的过程对人来讲是个黑箱,它可能会加入一些平常我们想象不到的因素。还是房价系统的例子,如果我们只是输入所有交易相关的数据,让系统自己去学习,它可能会加入我们想不到的因素,比如天气对成交的影响,也许是年龄、性别对成交的影响。
而且人工智能系统能进行自我训练,也就是自己跟自己对局。
3、深度学习系统应用于搜索会怎么样?
当前搜索引擎辨别高质量网站靠的是数据+人工。数据搜索引擎都会有网站的所有数据,还包括关键词布局,点击方式、访问方式这些判断因素,这些数据,他们都有,但哪些是真正高质量网站,系统不一定知道。
Google就有一批人工监测员来评估网站质量。他们3月份刚刚发布一份质量指南,告诉这些监测员,你应该怎么去判断这个网站,通过人工打分,把网站分成五级。或列举搜索的10个结果,让人工去看,这样的判断跟用户的判断高度吻合,因为检测员就是普通用户。将这两方面数据结合,Google就有办法通过深度学习准确地评测网站的质量。
4、未来,系统将自己去思想,自已去琢磨哪些因素最终决定网站的质量。
a.规则为基础的算法会被人工智能的黑箱取代;
b.系统工程师也不知道排名因素和权重——我们只知道输入,结果,但过程中系统所采用的因素到底是什么可能谁也没想到;
c.钻空子会变得非常困难。因为你是在跟一位13段棋手在对战,只要有输入,就会有输出,这种算法可能运用在任何领域,它具有全世界第一的判断力,比人的水平还高;
d.Panda,penguin算法很可能已经用到了人工智能。虽然google没有官方确认。目前应该还没有大规模的使用在搜索引擎中,但未来必然会大规模应用。
(备注:google推出Google Panda,即熊猫算法,旨在反垃圾,保护原创。2012年4月24号周二,谷歌推出新的算法更新方案,代号“Penguin Update”。Penguin,直译为企鹅,是谷歌继2011年2月24号发布的“熊猫”之后再次推出的新算法调整。) e.百度也有人工智能。百度和google比基本上是落后两三年,研究google基本上等于研究未来两到三年的百度。
第二,关键词相关性计算相对于传统的改变
传统的关键词排名算法基本逻辑是这样的:
如果关键词在所有文件中都出现,意味着关键词对文件的额区别能力非常小,基本为零,比如助词“的地得”。
如果有些词,只在比较少的一部分文件中出现,被人为对相关性计算的意义较大。 1、语义分析是一种相关性判断的新思路。某些相关文件倾向于使用语义相关的词,比如谈减肥的文章中经常出现卡路里,有氧运动,跳绳等,有时会出现羽毛球。林丹离羽毛球近点,离运动、有氧有一定距离,离减肥就更远。
这样的计算逻辑下,如果一篇谈减肥的文章没有提到有氧运到,系统可能会认为它跟减肥的相关性实际上低一些,虽然减肥这个词大量出现。按这种判断逻辑, 如果你减肥写两篇贴子,分别在一篇谈饮食,另一篇谈有氧,系统就会认为第一篇文章跟减肥相关性低一些,或者认为不是真正的减肥专家写出的东西。 2、它对未来的影响包括:写作方式,文章长度、内容深度,关键词分配方式,网站结构等。
未来的内容可能必须要写得长,内容必须要写得更有深度,要不然你可能提不到语义相关关键词。百度百科、知乎的自然流量排名都非常高。知乎类文章都是专家写的,都是有深度的文章。
关键词的分配方式变了,做网站的思路也变了,以前网站可能想做大点,页面要多,每个关键词都配上文章。
以后,则需要更强、更紧凑。不要想每个关键词都配文章,而是怎么把文章写得更有深度,覆盖更多词。
第三,页面数据与用户体验数据结合
我们通常认为用户访问数据的噪声较大,因为这上面比较容易做弊,比如早些年就出现过针对百度的页面点击工具来骗取更高的搜索排名。虽然谷歌和百度都没有明确承认 ,但当前在搜索引擎的算法中页面点击率应该是个因素。 在有了人工智能系统的情况下,这种情况将会改观。用户访问数据会更有用,因为系统会综合看很多条件,包括用户是谁,在什么条件下点击,输入什么关键词,于是噪声问题就有可能被消除了。
第四,页面数据与用户体验数据结合
在人工智能普及下,用户体验也是SEO。
在深度学习的逻辑下,未来体现用户体验的每一个环节,都可能被纳入SEO的判断因素,包括:网站打开速度。这已经是排名算法的一部分;搜索结果点击率。页面停留时间、访问页面数(有深度学习系统的话,有可能这些数据都能呈现出来。)页面跳出率。广告、弹窗数据、位置。增加页面互动。让用户在你页面上做些东西,而不只是看和读转化率。图片、视频 。内容的制造成本越高、质量就越高。交流讨论seo技术进群 221399105
1、未来两三年,人工智能可能全面影响SEO领域:
只有互联网公司才能实现的胜利
深度学习的意义在于实现“无人监督的学习”
深度学习系统应用于搜索会怎么样?
未来,系统将自己去思想,自已去琢磨哪些因素最终决定网站的质量
2、关键词相关性计算相对于传统的改变:
语义分析是一种相关性判断的新思路
它对未来的影响包括:写作方式,文章长度、内容深度
3、人工智能下的SEO,将促使网站不求大,而求内容强
4、在深度学习的逻辑下,未来体现用户体验的每一个环节,都可能被纳入SEO的判断因素。
第一,人工智能可能全面影响SEO
1、只有互联网公司才能实现的胜利。
上个月李世石和AlphaGo的围棋大战,李世石以1:4不敌人工智能的机器人。赛前预测时,多数言论认为机器胜算不大,包括棋圣聂卫平在赛前也认为电脑存在不可逾越的技术障碍,电脑完全无法战胜人脑。但当时我就在博客上写了有战胜的可能胜,因为谷歌所用的人工智能下棋原理跟我们通常所想象的下棋方法完全不一样。 当年IBM的电脑深蓝打败卡斯帕罗夫时,那时的算法和现在是不一样的。国际象棋可以用穷举的暴力算法来计算每一步的后续可能性。而围棋的困难在于不可能进行穷举,对美一种可能性进行计算的话,其可能性超过全宇宙的原子数量。
另外,象棋每个子有相对容易赋值的子力,车马炮都各自有规定的走法和优势。但围棋不一样,棋手落的每一个字可能是废子,可能被提掉,但也可能随着棋局变化变成手筋,因此没法对它的每一个子赋值。 那么,它是怎么完胜了人类的?为什么是Google,而不是传统的科技公司?因为当今最高端、最复杂的计算系统是在百度、Google,基本上只有互联网公司才有这个能力完成这种计算。
AlphaGo的算法分为两部分:
一是Policy network,即落子部分,删选出有利但有限的地方来落子;另一种则是Value network,对局势进行判断的系统。判断当前的棋局形势如何,它不是按既定的围棋规则,也不是按人类棋手的技术去的,而是将历史上过往巨量棋局输入服务器,系统知道每盘棋的所有过程和最终谁胜利,因而人工智能系统在实战时计算的是大数据支撑下某种局势下胜率是多少。局势判断系统才是AlphaGo决胜的关键。这就是深度学习带来的。
2、深度学习的很大意义在于实现“无人监督的学习”。
有监督的学习,是事先人为设定决定因素。比如我要建立一个厦门房价计算系统,我可以会输入面积、价格、朝向、区域等我们认为相关的因素,然后系统会根据这些计算出规律。未来,当我给出相应的条件,系统就能预测出房价。 无人监督的深度学习下,你只需告诉系统大量数据,不需要告诉系统结果由什么因素决定,让系统自己去学习。系统学习的过程对人来讲是个黑箱,它可能会加入一些平常我们想象不到的因素。还是房价系统的例子,如果我们只是输入所有交易相关的数据,让系统自己去学习,它可能会加入我们想不到的因素,比如天气对成交的影响,也许是年龄、性别对成交的影响。
而且人工智能系统能进行自我训练,也就是自己跟自己对局。
3、深度学习系统应用于搜索会怎么样?
当前搜索引擎辨别高质量网站靠的是数据+人工。数据搜索引擎都会有网站的所有数据,还包括关键词布局,点击方式、访问方式这些判断因素,这些数据,他们都有,但哪些是真正高质量网站,系统不一定知道。
Google就有一批人工监测员来评估网站质量。他们3月份刚刚发布一份质量指南,告诉这些监测员,你应该怎么去判断这个网站,通过人工打分,把网站分成五级。或列举搜索的10个结果,让人工去看,这样的判断跟用户的判断高度吻合,因为检测员就是普通用户。将这两方面数据结合,Google就有办法通过深度学习准确地评测网站的质量。
4、未来,系统将自己去思想,自已去琢磨哪些因素最终决定网站的质量。
a.规则为基础的算法会被人工智能的黑箱取代;
b.系统工程师也不知道排名因素和权重——我们只知道输入,结果,但过程中系统所采用的因素到底是什么可能谁也没想到;
c.钻空子会变得非常困难。因为你是在跟一位13段棋手在对战,只要有输入,就会有输出,这种算法可能运用在任何领域,它具有全世界第一的判断力,比人的水平还高;
d.Panda,penguin算法很可能已经用到了人工智能。虽然google没有官方确认。目前应该还没有大规模的使用在搜索引擎中,但未来必然会大规模应用。
(备注:google推出Google Panda,即熊猫算法,旨在反垃圾,保护原创。2012年4月24号周二,谷歌推出新的算法更新方案,代号“Penguin Update”。Penguin,直译为企鹅,是谷歌继2011年2月24号发布的“熊猫”之后再次推出的新算法调整。) e.百度也有人工智能。百度和google比基本上是落后两三年,研究google基本上等于研究未来两到三年的百度。
第二,关键词相关性计算相对于传统的改变
传统的关键词排名算法基本逻辑是这样的:
如果关键词在所有文件中都出现,意味着关键词对文件的额区别能力非常小,基本为零,比如助词“的地得”。
如果有些词,只在比较少的一部分文件中出现,被人为对相关性计算的意义较大。 1、语义分析是一种相关性判断的新思路。某些相关文件倾向于使用语义相关的词,比如谈减肥的文章中经常出现卡路里,有氧运动,跳绳等,有时会出现羽毛球。林丹离羽毛球近点,离运动、有氧有一定距离,离减肥就更远。
这样的计算逻辑下,如果一篇谈减肥的文章没有提到有氧运到,系统可能会认为它跟减肥的相关性实际上低一些,虽然减肥这个词大量出现。按这种判断逻辑, 如果你减肥写两篇贴子,分别在一篇谈饮食,另一篇谈有氧,系统就会认为第一篇文章跟减肥相关性低一些,或者认为不是真正的减肥专家写出的东西。 2、它对未来的影响包括:写作方式,文章长度、内容深度,关键词分配方式,网站结构等。
未来的内容可能必须要写得长,内容必须要写得更有深度,要不然你可能提不到语义相关关键词。百度百科、知乎的自然流量排名都非常高。知乎类文章都是专家写的,都是有深度的文章。
关键词的分配方式变了,做网站的思路也变了,以前网站可能想做大点,页面要多,每个关键词都配上文章。
以后,则需要更强、更紧凑。不要想每个关键词都配文章,而是怎么把文章写得更有深度,覆盖更多词。
第三,页面数据与用户体验数据结合
我们通常认为用户访问数据的噪声较大,因为这上面比较容易做弊,比如早些年就出现过针对百度的页面点击工具来骗取更高的搜索排名。虽然谷歌和百度都没有明确承认 ,但当前在搜索引擎的算法中页面点击率应该是个因素。 在有了人工智能系统的情况下,这种情况将会改观。用户访问数据会更有用,因为系统会综合看很多条件,包括用户是谁,在什么条件下点击,输入什么关键词,于是噪声问题就有可能被消除了。
第四,页面数据与用户体验数据结合
在人工智能普及下,用户体验也是SEO。
在深度学习的逻辑下,未来体现用户体验的每一个环节,都可能被纳入SEO的判断因素,包括:网站打开速度。这已经是排名算法的一部分;搜索结果点击率。页面停留时间、访问页面数(有深度学习系统的话,有可能这些数据都能呈现出来。)页面跳出率。广告、弹窗数据、位置。增加页面互动。让用户在你页面上做些东西,而不只是看和读转化率。图片、视频 。内容的制造成本越高、质量就越高。交流讨论seo技术进群 221399105