本文来自微信公众号:新智元 (ID:AI_era),编辑:Joey、好困、袁榭,原文标题:《太刑了!诈骗犯用Deepfake远程应聘美国公司居家办公岗位》,题图来自:视觉中国
2022年6月28日,FBI发布公告,提醒公众警惕在远程求职面试中使用Deepfake技术假扮成他人的情况。
这波啊,是真的“FBI Warning”(手动狗头)。
你远程面试的同事,可能是个假人
公告指出,FBI 互联网犯罪投诉中心(IC3)最近收到的用Deepfake和“被盗个人身份信息”(PII)申请各种远程工作和在家工作职位的投诉有所增加。
其内容包括经Deepfake处理过的视频、图像或录音,虚构事实,以假乱真。
而且按FBI公告,现在的诈骗犯工作也很用心,大都搞计算机技术业界的。
FBI表示,这些诈骗投诉与远程技术职位有关,包括信息技术和计算机编程、数据库和与软件相关的工作岗位。
这些职位将允许成功过关的候选人访问目标企业的敏感数据,包括“客户 PII(个人身份信息)、财务数据、公司 IT 数据库和/或专有信息”。
妥妥的信息诈骗了属于是。
此前,早在2019年,美国国土安全部就对Deepfake技术的安全性发表质疑,称“使用该技术骚扰或伤害他人利益的现象应当引起公众重视”。
而远程面试中存在的欺骗行为早已经不是啥新鲜事了。
2020年,就有领英的一位招聘人员曝出面试者“借助外部设备换脸”。
读者也许会问:这是图啥啊?费老鼻子劲,用诈骗手法骗到远程在家办公的软件开发岗位,未必诈骗犯也要来比比谁写代码更卷?
哪能呢,诈骗业界要赚的是大量快钱。
要是诈骗犯成功应聘了,为了新员工远程在家办公,是不是要给公司内部邮箱号、公司内网登录权限、公司基础技术手册这些材料?
有了这些数据,不管是转卖换钱还是自己动手偷钱,大小都能赚一笔。要是在受害企业内网里种下后门,还可以长做长有。
2022年5月,还有面试官发现有北韩人冒充美国公民面试一些加密货币和Web3公司。诈骗业结合炒币再结合谍中谍,真是好刺激。
另外,还衍生出来一个帮助他人用Deepfake等技术找到工作的业务。
果然有需求就会有市场,二阶服务都有了。
诈骗破解:能,但不稳定
但Deepfake换脸并非完美无瑕,FBI官方给出了一些区分真人和Deepfake换脸的技巧,包括异常眨眼、皮肤或头发周围不自然的纹理与视焦,以及打光异常。
FBI技术官员称,“在这些面试中,被采访者在镜头前的动作和嘴唇运动,并不完全与说话者发出的声音相协调。有时,咳嗽、打喷嚏或其他发声动作,会与视觉呈现的内容不一致”。
这首先是因为,当前的 Deepfakes 难以为面部动态表情制作高置信度动画,导致视频中的人从不眨眼,或者眨眼过于频繁或不自然。
这种视频持续10秒就很惹人怀疑了,要面试全程一点破绽不露,难度颇大。
其次是打光会看起来不自然。通常,Deepfake算法会保留用作假视频源模型的视频短片段的光照,这与目标视频中的匹配不佳。
还有,就是最先提到的,音频可能看起来与假人图像不匹配。特别是如果视频是伪造的、但原始音频没有经过仔细处理的话。困扰影视业界百年的“对不上口型”难题,拿算法也无法根治。
不过,分辨Deepfake视频的技术尚未成熟。
总部位于阿姆斯特丹的威胁情报公司 Sensity 的一份报告发现,反Deepfake的判读算法与软件有86%的几率将Deepfake处理过的视频认定为真。
2022年3月卡内基梅隆大学的研究,将市面上各种反Deepfake技术产品的算法和硬件基础对比了下,发现准确度在30%~97%之间,浮动太大。
所以FBI在公告内文也无真正的万灵良策对付,只有呼吁广大科技企业作为潜在受害者,多细心核查、多留神注意。
Deepfake换头术
众所周知,Deepfake就是利用生成对抗网络(GAN)强大的图像生成能力,将任意的现有图像和视频组合并叠加到源图像和视频上。
通过向机器学习模型输入数千张目标图像,Deepfake算法可以了解一个人面部的细节。有了足够的训练数据,算法就能预测出那个人的脸在模仿别人的表情时会是什么样子。
经过多年的发展,现在的Deepfake技术已经发展到了毫无违和感的“实时换脸”,而且门槛极低。
比如现在市面上十分流行的“DeepFaceLive”软件。一键安装,新手友好,换脸后还丝毫看不出破绽。
参考资料:https://techcrunch.com/2022/06/28/this-coworker-does-not-exist-fbi-warns-of-deepfakes-interviewing-for-tech-jobs/
本文来自微信公众号:新智元 (ID:AI_era),编辑:Joey、好困、袁榭