本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,头图来自:AI生成
2012年Google I/O大会发布的Google Glass,被称为Google史上最失败的产品,却也在科技史上留下浓墨重彩的一笔。
它失败的原因有很多,隐私风险是其中一个。
让Google Glass拍照很简单,用语音命令,或者按住顶部的按钮,但没有LED等亮眼的标志,提示他人正处在拍摄状态。
所以,从路人的角度看,Google Glass就是个不讲武德的“偷拍神器”,甚至曾有用户在电影院被保安赶出来。
如今,相似的事情仍在发生,甚至变本加厉——只是因为在人群中多看了你一眼,AI眼镜就可以识别出你的个人信息。
一张脸,一副眼镜,认识一个陌生人
你叫Lee吗?你从伯根县学院毕业吗?
你的韩国名字是Joo-oon吗?你住在亚特兰大吗?我们是不是在剑桥社区基金会见过?你的父母是John和Susan吗?
如果在路上被人搭讪,你没见过他们,但他们好像认识你,热情地叫你的名字,说出你的一两条个人信息,你会是什么反应?
两位哈佛大学生,AnhPhu Nguyen和Caine Ardayfio,就做了这样一个实验。
他们戴着Meta的智能眼镜Meta Ray-Ban,在校园、地铁等随机识别了数十个陌生人。拍下某人的一张照片,几秒之后,这个人的信息就会出现在手机上。
只是智能眼镜本身,还不能达到这样的节目效果,他们做了一些技术上的改动,但原理也并不复杂。
先通过Meta智能眼镜的直播功能,将视频实时传输到Instagram,然后用一个计算机程序监控这个视频流,并使用AI进行人脸识别。
接着,在互联网上搜索到某个人的更多照片,以及基于公共数据库,查找这个人的姓名、住址、电话号码,甚至亲属信息。
最后,这些信息会传送到他们编写的一个手机app,方便查看。万事俱备,就差随机吓到一个路人。
往细了说,两位学生是把各种现有的、成熟的技术组合在了一起,连生成式AI也参与了。
智能眼镜:配备摄像头的智能眼镜,在公共场合捕捉人脸图像。
反向面部识别:通过PimEyes等人脸搜索引擎,将人脸图像与互联网的公开图像进行匹配,并返回这些图像的网页链接。
爬虫工具:使用FireCrawl爬虫工具,从这些网页链接中抓取所需的数据。
大语言模型:大语言模型从抓取的、杂乱的数据中推断出姓名、职业等细节。
数据库:在FastPeopleSearch等网站输入姓名,从公开记录、社交媒体中查找家庭住址、电话号码和亲属姓名等个人信息。
其中,大语言模型起到的作用很微妙,它可以理解、处理、汇编不同来源的大量信息,比如,将不同文章中的同一个名字关联起来,通过上下文逻辑推理出某人的身份,让数据提取的过程自动化了。
隐私泄露老生常谈,面部识别并不新鲜,偷拍问题也不是出现一天两天,大模型在两年间已经成了很多人离不开的生产力工具。
但彼此之间强强联合的化学反应,还是导致了一个细思极恐的结果——仅凭大街上偶然的相遇,我们的个人信息就可能被有心人提取。
两位学生没有对外公开技术细节,做这个实验的目的,是为了提醒人们保持警惕。
那我们可以怎么保护自己?他们提出的应对方法是,从人脸搜索引擎等数据源中删除自己的数据,但这很难说彻不彻底。
虽然我提醒你了,但你不一定知道被偷拍了
当年有人开玩笑,Google Glass的最大用处,是让英国王室的查尔斯王子记住每个人的名字。
或许,通过支持人脸识别的智能眼镜,我们会迎来一个没有陌生人的世界,最高兴的可能是夜神月。
你可能会问,有了数据库、面部识别,用手机偷拍应该也行,为什么他们选择了智能眼镜Meta Ray-Ban?
理由很简单,它长得像普通墨镜,不如Google Glass赛博朋克,偷拍更加方便,而且眼镜本就适合记录,免提,见你所见。
Meta Ray-Ban并不是没有提醒,它有一个LED指示灯,当用户录制视频,它就会自动打开,提醒旁边的路人。但是,聊胜于无。
之前The Verge测评发现,在明亮的室外,Meta Ray-Ban的LED和快门声都不明显,在拥挤嘈杂的公共场所,很多人往往不会注意到这种细节。
当你的手放在镜腿的按钮上,别人可能觉得你就是在扶眼镜而已。
所以也不难理解,隐私一直是智能眼镜的关注点,前段时间Meta首款AR眼镜Orion发布时,也有人担心,会不会重蹈Google Glass的覆辙。
Meta还在Meta Ray-Ban的隐私政策里强调了“如何负责任地佩戴智能眼镜”,写了很多条温馨提醒。
然而,每一条都是非强制的,尊重别人也好,在拍摄或直播前用声音或手势提醒他人也罢,全凭自觉。
别说眼镜的形态更方便偷拍了,甚至,科技公司可以直接设计出支持面部识别的智能眼镜,障碍并不是技术本身。
2021年,外媒报道,Meta考虑过,在智能眼镜内置面部识别功能。当时Meta首席技术官Andrew Bosworth还举例,这样的智能眼镜,可以帮脸盲或者记不住名字的用户,在晚宴时认出某人。
另外,人脸识别初创公司Clearview AI,已经开发了自己的AR眼镜和应用程序,据称可以连接到包含300亿张面孔的数据库,只是没有对外公开销售。
某种程度上,怎么使用面部识别,怎么防止偷拍,是被法律和道德约束的。
比如,Facebook的面部识别技术,曾经让用户在照片中标记朋友,对隐私的质疑自然是绕不过去的,在2015年的一次集体诉讼中,Facebook赔偿了6.5亿美元。
面部识别,多么老生常谈啊。但恰是平凡的技术,却也因其应用的成熟、普及和广泛,让人如临大敌。
在AI面前,秘密越来越少
在哈佛学生的实验中,大语言模型的作用是帮忙处理数据,但现在使用各种生成式AI的产品,我们往往是主动给出自己的数据。
因为很多时候,付出隐私是使用服务的必选项,比如向AI换脸P图软件交出自己的脸。
更进一步说,不只是脸,AI硬件和软件们,都越来越强调个人数据的概念。
比如,用AI录音产品无缝记录你的一天,向AI日记透露你的日常和爱好,或者只是通过记忆功能让ChatGPT记住我们是谁。
AI会慢慢地更了解你,分析你,整理你周围的信息,提供给你更多的情绪价值,弥补个人有限的脑容量。
同时,这些产品也会强调隐私安全,要么说你的数据就是你的,不会拿你的数据训练模型,要么说用的是在本地运行的端侧模型,或者私有云,隐私泄露的风险更低。
隐私和便利,很难既要又要,当我们享受各种AI产品的趣味和个性化时,风险也如影随形。
就像《攻壳机动队》里的电子脑,人们直接将大脑连接上网络或者是进行大脑的互连,彼此可以快速沟通,但大脑也就有了被入侵的风险,连记忆也可以被伪造。
当然,隐私泄露可能就像面部识别一样,是个无趣的、没有新意的话题,你泄露,我泄露,他也泄露。好像,没关系的,都一样。
但如果有人戴着“墨镜”走到你面前,叫出你的名字,那一幕还是很有冲击力的,对吗?
或许更让人担心的,是无形的、支配信息的权力,先拥有技术和工具的人,对其他不知情的个人行使这种权力。
智能手机兴起之后,竖屏短视频、直播也发展起来,我们越来越习惯于拍摄和被拍摄,是无辜的背景板,或者说,不在乎,也无从察觉。
这时候我们是汪洋大海里的一滴水,但未来,这滴水,或许会因为镜头背后的AI被聚焦,然后折射出更具象的模样。