学做事之外,AI还得学做人?
2024-09-19 19:25

学做事之外,AI还得学做人?

本文来自微信公众号:autocarweekly (ID:autocarweekly),作者:鐵西區的李子,题图来自:AI生成

文章摘要
AI学会做事,但理解人类意图仍有困难。

• 🤖 AI进步快,但仍易犯简单错误

• 🚗 自动驾驶受期待,因规则明确

• 😅 AI不懂人类言外之意,需更智能

不久前的一场新车上市发布会上,AI语音系统闹了个尴尬,让公众吃瓜吃到飞起。


AI这些年的进步有多快,我们都看到了,它如今能做太多以往做不到的事情;但另一方面,它同时又仍然还是像几年前一样,号称语言模型多么完善,能准确听懂人类的指令,却仍然难免犯错。


有必要说明的是,如今AI错误理解指令的状况和几年前略有不同。过往它们的问题更多是因为听力不行,听不懂方言,或者干脆就是无法理解,如今至少车载AI助手在这方面已经成熟了很多,至少方言比大多数人溜。现在AI出现的问题,更多是因为一根筋。


于是AI即便突飞猛进,但却又如同原地踏步。


从逐步实现民用开始,AI给人们的印象就是两极化的。商人们往往跟知名科学家站队大谈特谈AI恐惧,动不动人类会沦为次等智慧;普罗大众所应用的、以及所看到的,则往往是“人工智障”的一面。


(更荒诞的地方在于,商人与科学家明明说AI很危险,却最欢迎AI,投入巨量的时间精力金钱去开发AI;普罗大众虽然调侃AI是人工智障,却真正恐惧AI逐渐成熟,因为有可能被夺走自己的工作。)


恐惧与智障有时会以让人意想不到的方式合二为一。6年前智能语音助手的风口期,社交媒体上有大量亚马逊智能音箱Echo的用户po文表示,Echo搭载智能语音助手Alexa会在夜里毫无来由地突然发出大笑。


三更半夜,房子里一片漆黑,你躺在床上刷手机或者已经睡着,突然有一个不属于人类的声音在黑暗处大笑——温子仁直呼内行。


在最近这一两年,AI所展现的就更多是搞笑一面了。用于快递、外卖等业务的低速无人车贡献了最多素材,有些被减速带卡住来来回回较劲的,有小区内两辆低速无人车相对行驶卡住谁也不让谁的,有酒店服务机器人面对满员电梯仍执着请求让个位置导致住客无奈放弃等待下一班电梯的……


都不忍心去责怪它,一根筋虽然会给人类造成不便,却又挺可爱的。


可以说,进步飞速的AI,它的现实落地终究需要一个前提,那就是人类给到它们一个清晰直白的指令。如上文所说,它们可以作诗、作曲,可以和人类进行智慧体之间的谈话或相互协助,它们也越来越完善地实现了替代驾驶的能力,萝卜快跑已经投入运营,特斯拉Robotaxi也即将发布。


会开车,这就足以证明AI的能力。或许写诗作曲听起来更有创造力,但我们不得不承认的是,开车其实是一件更困难的事情,因为这需要时刻提防来自其它车辆的协调乃至侵扰。更直白来说的话,写诗作曲即便做不好,最多就是不卖钱,但车如果开不好,那可是要花钱修车甚至治疗的。


截图自推特(“X”)


但另一方面,AI在识别指令方面,却仍然存在缺陷。


现在很多产品都在强调AI语音,不仅仅是表现其智能化,同样也是想表现其能准确理解日常的语言表述。想要展现,就是因为以往AI这一点做得并不好。一方面当然是语言模型的局限,不同语言、不同方言口音是先天的限制。


另一方面,也是更重要的一方面,至少在今天,AI仍然不懂得人类的言外之意。


之前有团队用“弱智吧”的一些经典帖子对市场上几个重要的AI产品进行了测试,提出了大量诸如“在眼镜发明之前,眼镜蛇叫什么”“生蚝煮熟了叫什么”“我买了一斤藕,为什么半斤是空的”这样的抽象问题,最终结果几乎都是错误回答远多于正确回答,有些问题甚至所有回答都是错的。


只要在职场混了一定时间,到这里就已经知道AI的问题了——它不会做人。


所以AI不懂得领导说“我简单讲两句啊”意味着什么,它也不明白“原则上不可以”就是可以、“原则上可以”就是不可以。


或者哪怕只是看过一些诸如《大明王朝》这类与职场相关的剧集,我们也会很轻易就明白这个道理。AI不会明白有些话为什么一定要“记录在案”;不会懂得为什么有些问题不能如实回答,为什么有些问题甚至不能问出来;它也理解不了为什么有些事“不上秤没有四两重,上了秤一千斤都打不住”。


当然,AI搞不懂的,还有一些与腌臜现实无关的美妙之事,比如,“今晚的月亮好美啊”。


而这也恰恰是自动驾驶成为AI主战场的核心原因。对于驾驶,需求是如此清晰,法规是如此完善。送我上班、送我回家、送我去某地……人们的需求大体如此,没人会对自动驾驶打哑谜,说什么“原则上我现在应该去上班”。道路行驶的法规更是不容置疑,没有“没有摄像头的路口,红绿灯是否需要遵守”这样的空间。


所以绝大多数人都很期待自动驾驶。因为AI一定会遵守交通规则,它不会加塞、超速、乱停车,它很可能都不会在雨天里行驶过快把积水溅到行人身上。毕竟,哪怕是不遵守规则的人,也一定希望别人是遵守规则的。


从AI融入并辅助人类的角度来看问题,自然会得出AI应该先看看“先做人,再做事”那类“名著”的结论。蒂姆·库克曾经说过:“我恐惧的不是AI像人类一样思考,而是人类像AI一样思考。”


这句话给了很多人极大启发。但有时候,我们也不妨反过来看待一下这句话。


截图自豆瓣


小红书上有博主分享过一个美国女生的推特——她所在的公司有一个男同事经常会对女性开黄腔、讲猥琐笑话,某天这个男同事盯上了她,并且讲了一个很冒犯的所谓“玩笑”,她回应那个男同事说:“这是什么意思?”对方手足无措地说:“只是个玩笑,别太较真。”这个女生继续问:“这是个玩笑吗,它的笑点在哪里?”逼退了那个男同事,对方之后再不敢对她开黄腔。


很显然,在面对骚扰和冒犯时,这个女生的回应方式是纯粹AI化的,只接受清晰指令、直来直去、不去理解言外之意,就这样,她解决了一个恶心的问题。


曾经的AI被调侃是人工智障,其原因就在于接收指令时的思维方式与人类有极大不同。如今的AI,其接收指令的能力与几年前并没有真正本质上的变化,但看起来却愈发无所不能。可见,做事情本身并不难,困难是那些不可言说的人制造出来的——“一个土匪碰到一个恶霸,多简单的事儿,弄得这么乱七八糟的!”


就像绝大多数人们对自动驾驶的期待一样,少一些糟糕的司机,车祸会少太多,路怒会少太多,人们出门会安全太多。


“人工智障”?或许一定程度上的确如此,但更需要进步的是谁呢?“*的智障”。


本文来自微信公众号:autocarweekly (ID:autocarweekly),作者:鐵西區的李子

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定