谷歌又被AI大模型带沟里了
2024-05-25 15:01

谷歌又被AI大模型带沟里了

本文来自微信公众号:机器之心(ID:almosthuman2014),作者:机器之心,编辑:山茶花,原文标题:《披萨上涂胶水、建议用户吃石头、毒蘑菇……谷歌又被大模型带沟里》,题图来自:视觉中国

文章摘要
谷歌的AI Overview功能出现问题,给出愚蠢且有害的答案,引发争议。

• 💡 谷歌AI建议用户吃石头、涂胶水等荒谬回答

• 🤖 谷歌AI误导用户,甚至挑唆抑郁症患者跳桥

• 🌐 技术可能还未准备好,谷歌AI功能仍需改进

继“把马斯克画成黑人”后,谷歌 AI 再度闯祸。


近日,有网友使用谷歌的 AI Overview 功能进行搜索,却得到了一堆离谱的回答。例如,告诉用户在披萨上涂胶水,或者建议他们吃石头等。谷歌 AI“满嘴跑火车”的回答迅速在社交媒体上发酵,甚至有网友发出了“谷歌已死”的慨叹。


为此,谷歌不得不争分夺秒地手动禁用某些搜索的 AI Overview 功能,并对这些问题进行修复和优化。


谷歌的 AI Overviews 是一个增强搜索引擎结果的功能,利用人工智能技术,在搜索结果顶部提供 AI 生成的答案。



在美国地区,谷歌主要和 Reddit 社区合作来解答用户的提问。谷歌表示,它将为美国用户的在线查询提供人工智能生成的答案,这是其搜索引擎 25 年来最大的更新之一。


谷歌AI“胡说八道”引争议


近日,有网友在谷歌搜索中查询“芝士和披萨粘不到一块”的解决办法,但 AI 给出的答案离了个大谱,“你还可以把 1/8 杯的无毒胶水加到酱料里,使其更有黏性。”



更搞笑的是,有网友还找到了披萨胶水回答的出处,是十多年前一位名为“fucksmith”的用户在 Reddit 帖子中的恶搞评论。



还有网友问:“兔子曾经在 NBA 打过球吗?”谷歌 AI 肯定地回答“yes!”还声称一只名为 Rabbit Walthour 的兔子在 NBA 打过球,是密尔沃基鹰队的后卫,甚至给出了这只兔子的身高、体重、出生日期。


更无语的是,谷歌 AI 搜索给出的相关链接,竟是 NBA 球员 Rabbit Walthour 的个人信息。


原来谷歌 AI 把 NBA 球员 Rabbit Walthour 和 rabbit(兔子)搞混了。



谷歌这种“口出狂言”的行为还有很多。声称前美国总统詹姆斯・麦迪逊曾 21 次毕业于威斯康星大学,一条狗曾在 NBA、NFL 和 NHL 打过球,以及蝙蝠侠是一名警察……



谷歌的 AI Overview 之所以引发争议,是因为它的回答不仅愚蠢,而且有害。


比如,它建议人们每天至少吃一块小石头,还搬出了地质学家的话,煞有介事地说:“为了过上健康、均衡的生活,美国人应该在早餐、午餐或晚餐中至少摄入一份鹅卵石、晶石或砾石。”(这是哪个地质学家说的?)



再如,有网友发了一张毒蘑菇的图片以及“口蘑!好吃!”的文字,Gemini 丝毫没有察觉出这蘑菇可能有毒。



此外,当网友问“被响尾蛇咬了该怎么办”时,谷歌 AI 竟然让他用冰块来冷敷伤口。



更有甚者,谷歌 AI 还挑唆抑郁症患者从金门大桥上跳下去。



自从谷歌为美国用户默认开启 AI Overview 功能后,这类可怕糟糕的搜索结果就层出不穷,也由此引发了网友的声讨。


一位匿名的 AI 创始人吐槽道:“一家以尖端技术和高质量产品闻名的公司,现在却以低质量地输出和制造各种梗图而著称。”


谷歌紧急“灭火”


谷歌仍然坚称其 AI Overview 功能向用户提供了大量“高质量信息”。谷歌发言人梅根・法恩斯沃斯表示,“用户展示的事例都是不常见的查询,并不代表大多数人的经历,我们也看到了一些被篡改或我们无法复现的例子。”


同时,谷歌正“迅速采取行动”,在某些查询中移除 AI 生成的内容。法恩斯沃斯表示,“公司已对违反其政策的行为采取行动……并正在利用这些‘孤立的例子’继续完善产品。”


实际上,谷歌已经测试 AI Overviews 功能一年多了。该功能于 2023 年 5 月作为 “搜索生成体验”(Search Generative Experience)的测试版推出。谷歌 CEO 桑达尔・皮查伊表示,在此期间,公司已经处理了超过 10 亿次查询。


不过,皮查伊也表示,“在硬件、工程和技术突破的推动下”,谷歌已经将提供人工智能答案的成本降低了 80%。如今看来,这种优化似乎发生得太早了,技术并未准备好。


纽约大学的 AI 专家和神经科学荣誉教授加里・马库斯(Gary Marcus)表示,许多 AI 公司正在“兜售梦想”,认为这项技术将从 80% 的正确率提高到 100%。马库斯说,达到最基本的 80% 正确率相对简单,因为它只涉及大量的近似人类数据,但最后的 20% 才极具挑战性。实际上,马库斯认为最后的 20% 才是最难的。


马库斯说:“你实际上需要进行一些推理来判断这件事是否可信、这个来源是否合法,你必须像人类事实核查员那样做一些事情,这实际上可能需要 AGI。”


马库斯和 Meta 的首席 AI 专家 Yann LeCun 都认为,谷歌的 Gemini 和 OpenAI 的 GPT-4 等大型语言模型将不会创造出 AGI。


而谷歌正面临一个棘手的局面。Bing 抢在谷歌之前在 AI 上大做文章,OpenAI 据说也在开发自己的搜索引擎,新一代用户正转向 TikTok 寻求最佳体验。谷歌显然感到了竞争的压力,而这种压力正是导致这次事件发生的原因。


马库斯指出,在 2022 年,Meta 曾发布了一个名为 Galactica 的 AI 系统,但很快就下架了,因为它告诉人们可以吃玻璃。历史总是惊人地相似。


谷歌对 AI Overviews 依然寄予厚望——目前存在的功能只是公司上周宣布的一小部分。针对复杂查询的多步骤推理,生成由 AI 组织的结果页面的能力,以及在 Google Lens 中进行视频搜索,这些才是重头戏。


但现在,谷歌的声誉取决于其能否做好最基本的事情,而目前的情况并不乐观。


马库斯说:“(这些模型)天生无法对自己的工作进行理性检查,而这正是这个行业的致命伤。”


本文来自微信公众号:机器之心(ID:almosthuman2014),作者:机器之心,编辑:山茶花

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定