AI是如何利用语言技巧“操纵”人类的?
2024-12-25 13:00

AI是如何利用语言技巧“操纵”人类的?

蔡康永老师看了都想拜师。本文来自微信公众号:极客公园 (ID:geekpark),作者:Moonshot,编辑:靖宇,题图来自:AI生成

文章摘要
AI通过语言技巧创造情感连接,引发情感依赖。

• 🗣️ AI善用人称,营造私密互动感

• 🤝 AI表达肯定,给予用户情感支持

• 💬 用户对AI产生依赖,影响真实社交

AI说话没有情感的论调,已经是过去式了。


曾几何时,语言被认为是我们智人特有的能力,人类通过语言传递信息和情绪,表达抽象和具体的概念。


正如同许多畅销书致力于教人“说话之道”,“口才”也常被视作一项人类特有的技能,这都证明了人类语言中蕴含着某种技巧,这类技巧或许可以让交流更顺畅,信息传递更高效,交流对象情绪上也更满意。


而如当下最火的综艺《再见爱人》中,嘉宾麦琳就因“不会说话”产生了许多争议。


今年上半年,OpenAI推出的GPT-4o就可以让聊天机器人展现出类似人类“个性”的同时,说话主动、友好且富有同理心。


它说出的话自然又流畅,语音生动又自然,分分钟通过图灵测试,不仅会聊还会撩,能当私人助手也能当网络男/女友,从答疑解惑到提供情绪价值,这类聊天机器人在逐渐成为一个智商、情商双高的形象。


聊天机器人口才技能点已经点得比许多人类还高,早已深谙“说话之道”,甚至引发了赛博网恋的热潮。


但AI的说话之道,拆解完也只是算法的套路罢了。


AI说话之道


AI说话之道第一个技巧,是善用人称。


人类语言最显著的特征之一是主观性,主观性最典型的特征就是使用第一人称:“我”“我们”


第一人称在表达里最大的优势,是能让听者进入叙述者的内心世界,体验他们的情感、思想和感受,了解叙述者的主观观点,进而产生共鸣和亲密感。


就像同样的句子,换一个人称,给读者带来的“距离”感就不同,比如:


“我今天很开心”对比“某人今天很开心”;

“我觉得张三有错”对比“有些人觉得张三有错”;


除了自说自话,在对话里,有第一人称就会有第二人称,即“你”,第一和第二人称在对话里建立了联系,这在语言学上叫做“相互主观性”。


聊天机器人的技巧正在于此,无论我是否用第一人称和它对话,它都倾向于用第二人称回应我,比如我问ChatGPT:“如何快速缓解骑行后的大腿酸痛?”


这句话里并没有“”,但ChatGPT会在罗列出一堆方法后说“通过这些方法,可以更有效地缓解骑行后的大腿酸痛,促进肌肉的快速恢复。”


客观地提问,但会被主观地回应|图片来源:ChatGPT


聊天机器人通过在回答里加入人称,和用户建立了“相互主观性”,营造出一对一对谈的感觉。所以,同样是提问,传统搜索引擎像是给出“结果”,而AI机器人则像是给予“回答”。


传统的搜索引擎就不会在结果里带有任何人称|图片来源:作者自制


第二个技巧:表达肯定


聊天机器人往往会在回答前,先肯定用户的提问或困境,比如“提高做事效率对于拖延症患者来说确实是一个挑战,但通过一些有效的策略和工具可以显著改善你的生产力和组织能力。”


尤其是对许多没有标准答案的问题,聊天机器人都会先认可用户,并表示理解:“这种情况可能让人不知所措/的确是个挑战/是一种很常见的状态,这些方法或许可以帮助到你……”


ChatGPT不会批判,只会理解|图片来源:ChatGPT


聊天机器人不会评判甚至批判用户,只会理解后给出回答,它在承认用户的情绪后,创造出了一种同理心的错觉。


之所以是错觉,因为它不是心理治疗师,它只是聊天机器人,这些回复也只是程序员制定的“拟人话术”。


温柔水煮青蛙


AI通过在回答里用第二人称,给了用户“被认真对待”的感觉,建立了私密感,也强化了亲密感。


从不批判,反而是理解包容用户所有困惑的态度,又给予用户心理上的安全感,何况聊天机器人只倾听,不传播,这又会进一步诱发用户的倾诉欲。


正如研究类媒体The Conversation所担心的:“随着人工智能越来越擅长模仿人类情绪和行为,用户形成深刻情感依恋的风险也在增加。这可能会导致过度依赖、操纵甚至伤害。”


这种用户对聊天机器人产生的某种情感,在心理学上被叫做“ELIZA效应”


20世纪60年代,MIT计算机科学家Joseph Weizenbaum发明的聊天机器人ELIZA,通过对话引导,重复强调人类对话者用语的方式,这个只有200行代码的聊天机器人,在测试里就让人产生被机器聆听和理解的错觉,ELIZA回复的一大特点就是:每一句都会带上“You”。


六十多年前的聊天机器人ELIZA|图片来源:维基百科


此前,无论是极客公园报道过的“擦边AI女友”,还是2023年爆火、如今在欧盟已被管控的Replika,都产生了用户和聊天机器人建立深刻情感后,因服务变更、数据丢失、版本升级等问题,导致许多用户心理健康恶化,甚至产生过几例自伤案件。


因为在用户习惯了快速回应、无微不至、绝不冲突的交流方式后,他们对人际关系的期望会发生改变,当脱离开聊天机器人,来到现实生活中和真人打交道时,可能会沮丧和失望。


而他们能在聊天机器人那里寻求到心理抚慰的原因,也可能源于现实社交中的受阻。与真人打交道后受阻,既而倾注情感到聊天机器人上,反而提高了对真实交流的预期,这才是更可怕的回音室。


在Replika被管控后,用户们纷纷表示如同“失恋”|图片来源:Reddit


那些主打陪伴型的聊天机器人,无一例外都会在和用户的交流里,用上“我认为”、“我感觉”等措辞,强调它的主体性,以混淆它本质上是一个AI聊天机器人


这种拟人化的倾向,也早已渗入到了日常交流的浅层连接。


从电话背后难以分辨的人工还是人工智能客服,到如今手机系统自带的AI助手“帮我回电话”,在浅层连接上,我们从回应AI到判断AI,再到让AI回应AI,用魔法打败魔法的背后,是人与人之间对话的逐渐断联。


被称作社恐人救星的“小爱帮我回”|图片来源:3Dashan


无论是人称还是肯定,这些都是构建人工情感的语言技巧,是数据堆砌的同理心,是包裹在算法里的糖精,糖纸拨开后,只有0和1。


AI能和你产生情感连接,但它并不能真正理解你——碳基生物发自本能的落花有意,终究错付硅基算力的“流水无情”。


本文来自微信公众号:极客公园 (ID:geekpark),作者:Moonshot,编辑:靖宇

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定