文 / 刘飞
说到人工智能,大家往往会想到比较遥远的未来。
常见的想象有几种形式
第一种是具有特殊功能的机器人,能满足我们某些特殊需求。它们虽然没有意识、完全在人的控制之下,但也可以比较精准地完成很多任务。
像军用的拆弹机器人:
(http://digi.163.com/16/0717/09/BS5SD7FT00162Q5T.html)
或者是医用的纳米机器人:
(http://it.sohu.com/20160818/n464870772.shtml)
第二种,则是人形的机器人。他们不仅能完成基本的任务,还具有了自主意识。
在各种文学、影视、游戏作品中,有自主意识的机器人几乎也已经是科幻题材必备的存在了。
像这货:
(http://sd.china.com.cn/a/2016/keji_0928/727664.html)
或者这货:
(《终结者5》)
以及这位美女:
(《西部世界》)
这样的想象就跟我们对外星人的想象一样,认为人工智能的外在形式会跟我们差不多。他们是各自有意识、有同样外形(头、躯干、四肢等)的个体。个体之间也会产生很多交互,从而也会存在社会属性。
这些机器人的意识里进化出了情感、有了喜怒哀乐,所以才发生了更多有意思的情节......但我觉得这纯粹都是为了故事创作所做的牵强附会。
人之所以成为现在这样,是进化而来的,人体的功能是为了更好地生存和繁衍才出现的。机器人如果有了自己制造(繁衍)的能力,何必还跟我们一样?
第三种想象到的形式,是没有实体存在,全世界的智能设备甚至联网的电子设备都是它的一部分。全世界的人都是无数个体,但全世界的智能设备都有同一个意识。
在守望先锋的基本设定里,就是人类和人工智能中枢(智械)爆发了毁灭性的战争。终结者讲述的也是人类对抗人工智能中枢(天网)的故事。这些故事里,人工智能中枢和个体都是存在的,一个是神的化身,另一个是人的化身。
类似的,还有黑客帝国里的矩阵,以及复仇者联盟里的奥创。
(蓝色的同学是奥创)
第四种形式,可以参照知乎著名的那篇文章「为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?」中,讲到的是很多科学家和学者,对人工智能的想象:以我们的认知,无法想象它的存在形式,但它也可能是全知全能的。
这是真正的神一般的存在。在它出现后,我们除了能永生,就是要灭绝。
对人工智能来说,第二种(自主意识机器人)和第三种(自主意识的智能中枢)不太可能存在。最主要的原因是:人工智能是快速发展、指数升级的,不可能稳定在一个跟人差别不大的状态上。也就是说,要不就是人工智能为人服务,要不就是瞬间远超人的能力,成为了神的存在。
我们以为的人工智能发展阶段可能是这样(所谓强人工智能,就是智力水平跟人差不多的人工智能,就是拥有了自主意识,同时又不够「特别特别」聪明):
但真正的人工智能发展阶段可能是这样:
我们根本就来不及,甚至说「配不上」跟人工智能对抗,就瞬间被超越了。这种超越,可能是很可怕的。想想看,黑猩猩的大脑只是比我们轻了那么点、皮层比我们小了那么些,在我们眼里,他们就是野蛮的动物,跟弱智一样。那有强大学习能力、在「大脑」进化中并没有「硬件限制」的人工智能,看我们也许就像看低几个维度的生命了。
(图片来自《人工智能的未来》)
说了这么多,我下面不想详细阐述强人工智能的不可能性,或者超人工智能的神奇/可怕未来,我想说的,正是可能很快会大大改变我们生活的——弱人工智能。
弱人工智能其实早已融入我们生活
而且正在潜移默化影响我们的生活。比较麻烦的是,大部分人都没有意识到这一点。在警惕着机器人、矩阵或者外星人的时候,我们都很可能全被弱人工智能所「统御」。这种统御并不是有意识的,而是无意识的。
弱人工智能之所以被大家忽视,有两点主要原因:
第一,弱人工智能一般很少被大家认为是人工智能本身,而觉得只是人工智能的分支或者技术。这些技术知名之后,都不叫人工智能了,比如 Siri(语音识别&自然语言处理)和今日头条(个性化推荐)。前几天锤子发布会上演示的讯飞语音输入(语音识别)和 Big Bang 的功能(中文分词),也看起来不太像那么高级的人工智能,而只是比较先进的技术而已。
人工智能这个词的发明者 John McCarthy 就说到,一样东西如果是人工智能实现的,那人们就不再叫他人工智能了。
第二,相较强人工智能和超人工智能来说,弱人工智能看似完全在掌控之中。同时,弱人工智能又没有自主意识,并不会刻意去改变什么预设之外的工作,只是在执行人类给它写好的代码、编好的逻辑。既然是这样,拆弹机器人就永远只会拆弹,不会做出炸弹来;纳米机器人就永远只会治病,不会制造生化武器。好像没什么可怕的,但事情真的是这样的吗?
弱人工智能的技术实际已经相当成熟,相关的科技公司也已经逐步崛起。许多生活中你尚未意识到的地方,其实都已经有了它们的身影。
(https://www.linkedin.com/pulse/hitchhiker-guide-ai-ed-fernandez)
下面我会讲到很多弱人工智能下,我们会遇到的一些麻烦
说麻烦可能是谦虚了,这些问题搞不好真的会影响到整个人类文明。
1、信息垄断
我们已经习惯了:打开搜索引擎,找想要的信息;打开新闻客户端,看看新闻;打开朋友圈,了解下朋友的动态。
这么简单的、已经习以为常的场景,实则暗藏巨大的隐患。
现在纸媒很快要被淘汰,手机成了真正人人必备的信息入口,而互联网则逐渐成了唯一的信息平台——这在人类历史上绝无仅有。在很多人眼里,我们看到的信息变得多了,我们变得更加自由,但从另一方面来说,我们想要的信息被垄断和控制也变得更容易了。
想想看,我们想知道这个世界在发生什么,是不是已经完全依赖互联网了?
(Thorsten Joachims)
在惯常思维中,互联网应该是打破了信息垄断的,但为什么说现在的互联网又在变得垄断了?
康奈尔的计算机教授 Thorsten Joachims (巧的是,他也是人工智能学者)曾经做过一个实验,观察用户点击 Google 搜索结果的情况。其中第一条结果有 42% 的点击率,而第二条则是 8%。也就是说,不管剩下的结果怎么样,前两条结果已经占据了 50% 的注意力。
接着,他们互换了前两条的位置,结果变成了 34% 和 12%。这也就是说,不管结果本身是怎样的,用户仍然只关心最开始的那条。
是不是跟想象的不太一样?
百度、Google 这样的公司,正在牢牢把控着目前我们的信息入口(当然,未来入口可能是多样的,但也存在同样的问题)。虽然我们搜出来了 1000000 个结果或者 5000 个结果,有种世界尽在掌握的感觉,但实际上很遗憾的是,对绝大多数用户来说,不管是 1000000 个还是 5000 个结果,他们只会点击第一页最顶上的几条而已。
说到这里,估计不用提示你也能想到在信息垄断方面,他们能做什么了吧。他们其实已经做了一些。百度今年某个事件,就是在知乎酝酿发酵的,而这个事件,恰恰就是百度利用了信息垄断来获利,在某些用户获取信息的过程中夹了私货(广告)导致的。
Google 也经常在这个方面出事情,比如 2011 年的非法医药广告以及今年疑似为希拉里站台。
(不管影响谷歌的搜索结果是不是真的,希拉里竞选团队的技术负责人的确是前谷歌的高管)
凡是在获取信息通路上,处于入口地位的产品,都有垄断信息的可能。
当你随手点击了一家看似不错的餐厅的外卖时,也许不会意识到他们是花了钱的、是被平台塞到前面的(http://news.sohu.com/20160815/n464151313.shtml);当你津津有味地阅读某个新闻客户端的推荐文章时,也估计不知道有些文章其实是软文或者公关文。
我们以为有了全新的信息入口、选择变得更多了。但其实我们选择变得更少了。
2、过滤泡沫
我们享受着个性化的服务:搜索引擎都在提供我们最有可能点击的网页;今日头条在说我们关心的才是头条;网易云音乐努力让我们总是听到喜欢的歌......
第二个要说的麻烦同样存在于看似更便捷和舒适的人工智能技术里——个性化推荐。
近几年随着机器学习的发展,个性化推荐愈发有效。我们能用新闻客户端看到更喜欢的资讯、能用音乐客户端听到更喜欢的歌。在这之前,我们都疲于从无数的资讯和歌曲中分辨哪些才是我们喜欢的。
似乎很美好,毕竟我们能够找到自己更喜欢的了。
但这正是陷阱所在:我们喜欢的,就是我们需要的吗?
就好像说,我们喜欢甜,就每顿饭只吃白砂糖?喜欢美女,就每天混迹于红灯区吗?如果只顾着享受快感,那么毒品就会是正确的选择。
当这些个性化推荐系统逐渐明白我们的喜好后,就会很精准地给我们最喜欢的,而且永远都是最喜欢的。
(协同过滤是最常见的个性化推荐算法,亚马逊、Facebook、今日头条、网易云音乐、豆瓣都采用了这种算法)
我们喜欢摇滚乐,系统搞明白后,我们就永远听不到其它的音乐风格了,并且会错失跟它们邂逅的机会。(就像我一个朋友说的,他在听了一个星期民谣以后,想听几首流行歌,在每天的推荐歌单里已经找不到了。)
我们喜欢小米手机,系统搞明白后,我们也就永远看不到其它手机的资讯了。我们会认为全世界都在议论小米,却意识不到在三四线城市,仍然是 vivo 和 OPPO 的天下。
互联网观察家 Eli Pariser 在 2011 年的 Ted 演讲上,把这样的现象叫做 The Filter Bubble,也就是过滤泡沫。(http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=zh-cn)
过滤泡沫让我们只关心世界的一小块,而且是越来越窄的一小块。更可怕的是,由于我们自己并不清楚过滤泡沫的存在,所以我们也不知道自己不知道。
(图片出自 Eli Pariser 的 Ted 演讲)
在未来各种互联网服务成为常态后,即使没有人去操纵,在个性化推荐的「协助」下,我们也会变得越来越狭隘。
我们订的推荐的外卖,都是一个口味的;我们喜欢的歌,都是一个类型的;我们看的新闻,都是关于某一些事情的;我们到淘宝买的排序在前的东西,都是一样风格的。
这可能是我们会遇到的第二个麻烦。
3、数据风险
我们在享受着数据的便利。淘宝能够依据我们的个人数据推荐最合适的商品;餐厅能够根据我们的喜好推荐最合适的菜单;医生可以根据我们的历史病历数据来得到更准确的诊断;连家里的智能温度系统知道我们回家了都会把温度调整到最适宜的状态。
在《1984》里,电子屏无处不在。老大哥依靠这个监视着每个人。如今的城市里,公共场合摄像头也是无处不在的,虽然目的不是为了监视我们,但至少提供了监视我们的途径。
数据将通过三个途径变得更加完善:
1)主动提供。既然要有个性化推荐,既然我们要享受其它各种大数据带来的福利,那么我们就要提供很多个人的信息和数据。你可能没注意很多软件注册时的声明,但在读下这些文字时,你估计已经默认同意过几十个甚至上百个产品的隐私协议了,这些协议确保他们能够合法获取你的各种信息和数据。(凯文·凯利在《必然》中说过,人们总会为了享受服务而放弃部分隐私。)
2)被动监视。智能设备在逐步变多,也就意味着摄像头、各种传感器和监视器都变得多了起来。当你家里布满各种各样的智能设备、或者你身上在用各种设备,并且它们都接入了互联网时,它们也就同时带来了泄露你各种隐私的风险。
3)间接收集。科技进步使得很多过去在档案里、在纸质手册里的很多信息得以电子化。我们在医院的病历数据,在公安局的登记数据,在学校的教育数据,在公司的工作数据,在银行的信用数据,原本只是在限定的时空里存储,现在则会存入联网的数据库。迟迟没有破案的白银连环杀人案,就是因为公安局的 DNA 检测能够联网匹配,在 Y-STR 数据库里发现了凶手的堂叔。
由于这些变化,我们的数据逐步变得完整。这些数据,迟早可以描述我们每个人(就像《黑镜》第 2 季第 1 集里所讲的那样,死者的社交信息已经可以重塑他本人了),并且实时、动态地「监视」我们每个人(参考:我们自己终会成为大数据)。
这些数据如果被滥用,后果不堪设想。
如果被政府滥用,那就是像《1984》里描述的那种场景。我们所见到的每个摄像头、每块屏幕都是监视器,我们所拨出的每个电话、发的每条消息都被窃听。
苹果的经典广告里,拿着锤子的女模特击碎了老大哥的屏幕。而现在,苹果变成了新的老大哥,拥有全世界无数用户的个人信息。好在他们暂时还没有向政府妥协。
除了提供给政府,还有种可能是数据库的泄露。这样的事情发生过不止一次两次了,经常有账号密码泄露,就有大量的用户隐私被传出,有些非常严重。
这世界上不会存在完美的安全措施。互联网的地下世界有着无数黑客,他们可以来去无踪地搞到这些数据(可自行搜索「中国黑客传说」),不留任何痕迹。
科幻短剧《黑镜》第 3 季第 3 集讲的就是主人公和其他几个人被人盗取了隐私数据,被抓住了把柄所以言听计从、毫无还手之力,结局凄惨。
(主人公收到的短信里,对方让他打开定位、保持开机状态,就能了解他的位置信息,从而威胁和操纵他。)
迟早有一天,我们每天的一举一动,都能够记录在案。我们买了什么、吃了什么、用了什么、看了什么......想成为老大哥的人只要技术到家,都会有办法都获取到。
除此之外,在某些人工智能技术足够成熟后,数据可能有更重要的意义。目前的数据也许只是个人用途,但未来的数据可能是社会性的,比如交通数据、金融数据或者军事数据。
万一这些数据被人窃取甚至操纵,那后果不堪设想。就像一个连环杀人案,凶手的 DNA 在数据库里被人修改掉,那无辜的人就可能被当做杀人犯;或者有的人病历数据被恶意改掉,结果医生开了对他来说可能会过敏致死的药......
未来的智能交通系统、医疗系统,在工厂里的各种智能机械......但凡是有杀人放火能力的,并且在依照我们设定的数据按部就班工作的智能系统,都有可能因为数据篡改而造成天灾人祸。
《黑镜》第 3 季第 6 集里,原本用来维持生态平衡的电子蜜蜂被人修改了智能模块的数据,变成了可怕的杀人凶器。
4、真假陷阱
有了 AR 之后,我们的未来会大不一样。我曾经写过一段类似的想象:
想清晨跟远在海外的老同学打声招呼,只需通过眼镜或者播放器说一句“呼叫马丁”,马丁的身影就浮现在你面前了,无论刷牙洗脸,还是读书看电影,他都可以在一旁跟你无缝聊天。
未来如果能在家里,能感受到在任何其它环境中相似的体验,那干嘛还要出门呢?佛教中有所谓五感(色声香味触),这些感知都能用先进的科技完成的话,我们是不是就省去了很多麻烦呢?
问题就来了:你怎么知道你所看到的、感觉到的是真的还是假的呢?
快速发展的人工智能技术会让造假变得有可能。
我们用 AR 的工具跟朋友聊天、谈笑风生,但其实跟你聊天的,会不会只是一个机器人?那些影像会不会只是制作出的 CG?
你在路上看到每个路标、行人或者远处的高山,会不会是全息投影出来的假象?你坐在火车里,以为是一直驶向北方的,但车窗会不会是投射虚假风景的电子屏、你其实绕路去了另外的地方?
随着 AR 技术的发展,我们也许都会戴上像 Google Glass 那样的工具(当然肯定没有它那么笨拙)。有可能就像一个隐形眼镜一样方便,戴上去就能看到更多智能系统提供的视听内容;甚至有可能会直接植入什么芯片和纳米设备。
如果是这样,我们以为只是增强了现实的 AR 技术,就有无数种方法来操纵我们、混淆我们了。
《黑镜》第 3 季第 5 集里的大兵,都植入了称为「Mass」的视听增强系统,用来辅助他们的军事行动。他们可以直接取用无人机的视角、看到系统发来的信息以及地图。同时,这个系统也可以屏蔽掉很多声音、改变看到的画面,制造出虚假的内容,用来误导和操纵大兵。
5、智能助理
起初我们只是从个性化推荐中得到信息,决策还是我们自己做的。等到它们逐渐变得更加智能、更加优秀,我们就会直接听从它们的建议。
每天起床,我们会先听一下智能助理对日程的安排。洗漱的时候,智能助理会读给我们最恰当的新闻。我们会乘坐它推荐的交通工具。中午会去它说好的餐厅吃饭。傍晚,会直接下单买它说好的衣服和日用品。下班后,会经过他的提醒给家人打个电话,然后去它安排好的健身房锻炼。
为什么要听它的?因为你发现,它永远都能做出比你更准确、更理性、更完美的决策。因为它手里有你的各种数据,知道你的生活习惯、性格特点、身体状况甚至 DNA 序列。
智能助理是个性化推荐的升级版本。
如果说目前的个性化推荐,缩小了我们可选的范围、给了我们一些选项,最终决定还是我们自己做的话:
那么,等到智能助理真的可以安排我们的生活和工作后,我们自己做的部分就会被压缩:
如果说信息的错漏会导致我们做出不完善的推断和决策,让我们的决断变得片面和不完善,那么决策层面的错漏会直接影响到我们的生活。
这些错漏造成的原因,会跟刚才说的类似,有两种可能:系统的不完善;恶意篡改。暂且抛开系统的不完善,就说恶意篡改这个可能。
如果是现在的黑客攻破你的手机,大概最危险的就是偷点艳照或者盗取银行账号。但未来我们对智能系统言听计从的话,黑客修改了我们的智能系统,就会变得非常危险了。
我们非常信任智能系统,于是它买的食物我们不会仔细研究就会吃下去;我们非常信任智能系统,所以它导航的路、让我们去的地方,我们都不会怀疑。我们会变得容易操纵。
同样麻烦的是,我们在被操纵的同时,完全不会意识到这一点。我们都没有能力去追究智能助理背后的算法和数据究竟是不是对的。
智能助理未来不仅可以解决个人问题,也许还能解决更多社会性的问题。那就是下面要说的大麻烦了。
如果人工智能真的可以根据各种数据和有效的算法来协助我们做政府、企业和组织的决策,那我们也会对智能系统产生依赖。毕竟很多复杂的问题交给一个两个人去做总是会有错漏,但足够强大的智能系统则看起来比较保险。
这样以来,人工智能的数据和算法一旦被人有心篡改,可能波及范围就变成了全世界。
不要以为这样的智能助理很遥远,作为认知计算系统的代表,IBM Watson 已经是应用层级的人工智能专家系统了。采用了大量人工智能技术的 Watson,目的不在于成为全能的机器人,而是成为协助人完成很多事务的专家。
目前 Watson 技术基础上的相关产品有:
Watson Virtual Agent
Watson Explorer
Watson Analytics
Watson Knowledge Studio
Watson Commerce
Watson Education
Watson Financial Services
Watson Health
Watson IoT
Watson Marketing
Watson Supply Chain
Watson Talent
Watson Work
( http://www.ibm.com/watson/products.html)
可以看到,已然涉及了我们生活和工作中的各种领域。
我曾经假想过一个惊悚故事的提纲。
在未来的某个时代,人工智能已经参与到人类方方面面的决策中。有一批水平高超的程序员,他们合伙攻破了各处的智能系统,并且篡改了其中的算法和数据,使得他们能够人为操纵人工智能提供的决策结果。由于他们始终没有暴露,全世界实际上是不知情的情况下成为了他们的游戏沙盘。
虽然不能直接发起战争,但间接的一些手段,比如给军队虚假的敌方数据,就可以误导他们尽快发起进攻。虽然不能直接杀掉某个人,但像上文提到的,只要误导他吃会过敏致死的食物也能间接除掉他。于是,他们开发出了一套可视化的系统,能够快捷地对世界上大到国际政局、小到某个人生活的事项施加影响。
这个可视化系统是不是觉得很熟悉?
《模拟城市 4》
本质上,把信息整理和过滤的环节让渡给了人工智能,我们就会有一些风险;再把思考和决策的环节也让渡给人工智能,我们就会有更大的风险。
从这个维度考虑,人类的活动大概就分为获取信息、思考决策和执行三个步骤。
那么,要是把几乎所有我们在做的事情、嫌麻烦的事情都让渡给人工智能呢?
6、智能乌托邦
全世界的所有资源,比如食物、能源,都在智能系统掌控的全自动化工厂下运行,也不需要我们的操心。社会在智能系统的安排下,变得井井有条。
我们一出生,人工智能系统就会根据我们的基因选择了最优的成长路径。
我们会阅读最合适的读物、观看最合适的娱乐作品。衣食住行也都不用操心,全被安排得妥当。
到了适婚的年龄,智能系统会推荐最匹配的情侣,无论怎么算,我们的性格和其它个人条件都跟对方最搭。
智能系统知道怎样让每个人开心,他会定时定量地给我们一些刺激。有时候是直接吃药,有时候是看一段有趣的视频,有时候是推荐给我们几个好玩的朋友。
所有的痛苦都被抹杀。在这个乌托邦里我们只享受快乐。
总之,每个人的一生都会高高兴兴地度过。根据智能系统的测算,这个时代的人类,在整个历史上都是最幸福的。
看似美好,但像猪一样被圈养起来,会是我们想要的未来吗?
这样的未来并不是臆想出来的。在《必然》里,凯文·凯利提到,所有的集体智能和机器,都会融合为一个被他称为「Holos」的整体。这个整体,目前尚属不完美的阶段,以互联网的形态覆盖着 510 亿公顷的土地、触及 150 亿的机器,占据 40 亿人类的心智,消耗地球 5% 的电能。
不过,跟凯文·凯利乐观的预测不同(他认为未来我们会跟这样的人工智能生态形成良好的关系),我觉得一旦人类活动几乎都移交给人工智能来完成了,那很快人类也就丧失价值,成为被照顾、被抚养的对象了。
(《机器人总动员》里被抚养得妥帖的人类)
以上,就是弱人工智能可能制造的麻烦。这些麻烦,都不需要人工智能产生自主意识,也不需要人工智能比人类高超多少段位。所需要的,都是我们平时习以为常的语音识别、自然语言处理、图像识别、机器学习、工业机器人、专家系统等等。
最近有两部剧都特别火,一部是《西部世界》,另一部是《黑镜》。
我很喜欢前者的剧情,探讨人与即将觉醒的机器人之间的纠葛。
但后者描述的那些黑色幽默,由于万物互联的网络、完善的大数据或者先进的人工智能引发的种种危机,却更有可能成为现实。
而且是马不停蹄正在接近我们的现实。
微信公众号:刘言飞语(liufeinotes),互联网产品经理,知乎产品经理领域优秀回答者之一。