10月13日美国政府发了两份报告:《为未来人工智能做好准备》和《美国国家人工智能研究与发展策略规划》,百度李彦宏认为人工智能是未来,而与此同时360的老周近来则发了篇文章《人工智能的泡沫有多大》来探讨人工智能在搜索以及娱乐上的落地方式。
毫无疑问的人工智能已经成为这个时段的热点,但它究竟和过往几次有什么不同?是再一次人们的集体错觉还是说一场席卷社会和企业的变革真的已经开始?核心制约因素是什么,这篇文章探讨这个问题。
人工智能的发展是滚雪球
新技术的展开从来不是因为人们的喜好和热情,而是依赖于技术-商业(有时候是军事)上的正反馈循环。CPU的变小与变强,网速的持续提高事实上都是这种正反馈的结果。人工智能此前两次失败的很难看,主要原因就是有愿景但并没有实际产生出太大的商业价值。
我们的社会、经济都严重依赖于人类的智能,可以讲智能是人类文明的根基,而人工智能对人类智能形成替代,所以人工智能从来不缺愿景。
任何一个点的突破比如图像识别都可以让人联想到看家、查交通违规等多种场景。人工智能此前一直缺的就是它要能真的能持续产生商业价值。落到看家、查交通违规的例子上,就意味着技术上它必须足够精确,降低误报率,真的能履行人的部分职责,达到可用的程度。达到可用的程度可以看成是一个落地的起点,这之后需要的则是进一步的投入要能让这种商业价值扩大,比如不只能看家还能巡逻,不只能查交通违规还能辅助驾驶。
初步可用,投入可以让商业价值放大这两者如果同时具备,那技术-商业的正反馈就可以形成。一旦形成这种正反馈,那这种技术的摊开就不是人力可以改变的。
第一次人工智能浪潮更多是受制于第一点,人们在那时候似乎并没给人工智能找到特别好的应用;第二次人工智能浪潮则更多的止步于第二点,80年代确实有些专家系统被成功部署,并为公司节约数以千万美元计的费用,比如第一个成功的商用专家系统R1在DEC成功运转,此后DEC陆续部署了40个专家系统,但这种展开显然并没有获得持续的回报,也就没能持续下来。
这次人工智能浪潮之所以看着有点不一样,关键就在于这种正反馈已经初步形成,并比此前两次范围和深度大大有所增加:
技术上,一边Deep Learning大幅提高语音识别等的精度,比如语音识别就从大约20年前的70%提升到现在的95%以上,另一边GPU的持续进步则不断提高计算速度,根据nVidia的数据,为人工智能推出的运算卡,相比传统双路至强平台,训练速度提升60倍,inference则提高16倍左右。
商业上,机器学习已经成为一种标配,DeepMind尝试把AlphaGo的算法运用到Google IT运营中,结果把运营费用降低了40%。苹果则用机器学习改善各个地方的用户体验,比如iPad Pro手写笔上的防误触。总体来看可以讲AI向各行业全面渗透已经成为基本趋势。
到这种程度我们至少可以讲正反馈的第一个螺旋已经转起来了,但只有第一个螺旋还不足以让白宫采取行动,所以需要探讨的是这个螺旋转起来后,后面还会有什么?必须有足够大的东西,这种正反馈才能持续下去。
所有行业都在鼓吹人工智能
人工智能事实上可以应用在任何一个领域,如果非要分个类的话,那大概是3个基本类别:一个是人机交互方式(包括语音交互与AR这种新的显示方式);一个是前端的自动化;一个是后端的数据处理。
在人机交互上,最典型的例子就是语音交互与AR。
AR这个词可以进行非常复杂的定义,比如可以是常说的那种眼镜(微软Hololens、Meta等),也可以是手机的一个功能特征比如Tango那种玩法,当然也可以是一种应用功能,比如Pokeman。但我个人认为AR骨子里是一种交互方式的变革,这种交互方式核心特征是实时混合数字空间和现实空间,核心依托的技术则是人工智能上的突破,至于具体产品则是这种交互方式的不同应用。
语音交互则是我们常说的Siri,Echo等。这种交互方式的变革之所以重要在于它会催生新的通用型计算平台,进而导致整个生态的变化,比如鼠标的发明推动Dos到Windows。
讨论交互方式,比较有意思的点是它看起来并非刚需,但实际上是通用型终端换代的核心,影响极为深远。比如说从PC互联网到移动互联网的变化,一个原因是触屏的发展。触屏是非精确定位,你不能像在PC浏览器里那样精准访问各个链接,因此操作区域必须足够大,所以就形成了移动互联网代表性的各种App(淘宝、美团、今日头条等)来替代传统PC上的网页浏览。。
在前端自动化上最典型的就是自动驾驶和机器人。
在这次人工智能有突破之前,所有的自动化可以称为限定规则下的自动化。从软件的实现上更容易看出这两种自动化的根本差别,过去的软件里其实充满了“如果(A条件满足),然后(做某个行动)”这样的条件和分支。之所以Office Word甚至Windows这样的软件看着非常强大,原因是这种条件选择嵌套的足够多。
但现在基于深度学习的程序则不是这样,它先训练出个模型来,接下来把新的输入抛给这模型,让模型自己看着办(Inference)。也就是说传统的程序是可以精确控制的,但深度学习的程序没办法控制细节。这种程序差异放到自动驾驶和机器人上能达成的自动化程度显然有本质差别,比如在生产的时候前一种程序上的自动化只能让特定的机器人在流水线上生产特定的产品比如汽车,后一种则可以产生什么都能干的机器人,这种机器人最终能干什么依赖于你怎么训练它。后一种机器人的应用范围无疑远胜前一种,但暂时后一种机器人在操作精度上确实还不如前一种。
这种自动化升级的深远影响在于它可以依次在各个领域实现无人操作,比如建筑上就可以实现无人机+挖掘机的无人操作(Skycatch与Komatsu尝试的方向),工厂里则可以实现生产线上的无人操作等(Baxter尝试的方向)。
在后端数据分析上比较典型的应用是IBM Watson的那种大数据分析程序。IBM选择了医疗做突破口,这其实是非常有道理的。一般来讲医疗的历史数据通常有比较好的标注,而图像识别技术上的突破正好可以用来看各种医疗片子。看医疗片子事实上相当于是识别图片上的病变模式,而在这点上再有经验的医生也会被人工智能虐。当然这种数据分析绝对不局限于医疗,金融、安全、建筑等都可以应用同样的模式。
看完了人工智能的三个大的落地方向,我们回到技术-商业的正反馈上:
首先是深度学习+GPU的突破导致语音识别、图像识别等在识别率和速度上有突破性进展。然后是这种突破在现有的某些领域中得到应用,比如人脸识别等。当然这两者都伴随者资本的持续投入。
然后,一些更大的领域开始变热,比如上面说的人机交互、自动驾驶、数据分析等,这时候各种资本会更大幅度的介入。
下面其实要等待的是这些大领域真的有所进展,一旦他们有所进展并且运营成功,那这次人工智能浪潮算是彻底落地,后面就会进入应用范围持续扩大,技术自身变的更快更强的阶段。一旦这些大的领域无法取得进展,比如5年里看不到成功的落地项目,那这波人工智能浪潮就有可能再次变冷。
互联网没能降低房价,人工智能就可以?
如果这次人工智能浪潮真的落了地,那一定会影响就业,这点很多人探讨过,这里不再展开。反倒是想探讨一个开脑洞的问题,人工智能这类科技的发展可以降房价么?
抛开各种细节,房价增长的基本原因是人口向少数地区集中,而少数地区房子供给有限。所以人口净流出的地区比如辽宁,房价是十分不坚挺的,甚至下跌趋势已经比较明显。
这样一来核心问题就是:科技的发展到底是有助于催生越来越中心化的大城市,还是说让城市可以去中心化?答案如果是前者,那科技就是助推中心区域房价上涨的力量,如果是后者那科技的发展就是站在高房价的对立面的。
到现在为止经济发展一直都是在促进中心化。一个地方配套越完善,那经济越发达;经济越发达,配套也越完善。可以讲经济发展,城市中心化和高房价三者间有种必然联系。
但人工智能等科技似乎是站在高房价的对立面的。如果AR真的足够发达,那异地办公就成为可能,高质量教育也不再依赖于总是供给不足的教师资源,高质量医疗也会与地域解绑。那样一来人们随便在那里都可以获得工作以及高质量的教育、医疗等社会服务,那他为什么需要住在高房价的地方?
未来的人口分布始终有两种可能:
一种是北京这类大城市逐步扩大,成为每个可以吸纳1~2亿人口的超级城市。这趋势在各个省重演,各个省会成为地方性超级城市,同时3~4线城市和乡村逐步消失。
一种则是人口相对均匀分布,每个人可以找到他喜欢的地点,虽然远离繁华但也生活的极为便利。
人工智能这类科技似乎是站在后者一边。
小结
上面说的其实是新书《终极复制:人工智能将如何推动社会巨变》里想表达的部分意思,我们的未来在细节上仍然模糊,但人工智能在重定义未来这一点上是百分百确定的,所以才会有很多的人从学校(如360人工智能研究院的颜水成是从新加坡国立大学),从科研院所(如声智科技的陈孝良是从中科院声学所)等走出来拥抱这次浪潮。
订阅号:琢磨事(zuomoshi)