新浪财经

小心AI诈骗!“10分钟被骗430万”上热搜

中国青年网

关注

近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。这起案件曝光后,很快登上了热搜,引发了网友的普遍担心,因为在AI换脸技术的辅助下,诈骗术的欺骗性实在是太强了,让人防不胜防。

比如,骗子并没有用仿真微信加郭先生行骗,而是直接用其好友的微信;再如,转账之前,郭先生为了确认安全,还专门视频聊天核实了身份。这意味着,骗子首先“攻陷”了郭先生好友的微信,然后用AI合成了其好友的脸和声音,骗取了郭先生的信任。

以往碰到要转账的情况,很多人都会像郭先生一样,先打电话或者视频确认一下,没想到在AI换脸技术下,眼见、耳听都不一定为实了。这就大大增强了迷惑性,客观上确实给行骗提供了一定的方便。那么在人工智能时代,该如何保卫我们的财产安全和合法权益?

而且,AI换脸技术被滥用,所带来的不仅是财产风险,还会引发肖像权、知识产权等领域的纷争。之前有人用AI换脸来制作明星甚至普通人的不雅视频、随意制作AI歌手并随意“点歌”,就曾引发争议,这背后也是一条条依托人工智能的地下黑产业链。

不过还是要认识到,虽然人工智能增加了防诈骗的难度,但技术本身是中性的,主要的问题还在于对技术的不当使用。像本案中,至少有两层值得追问的地方:其一,个人微信、人脸等隐私信息是如何泄露的?其二,骗子团伙所使用的AI换脸技术服务,到底是谁在开发、提供?

作为个人信息的人脸,这种生物识别信息具有高度敏感性,很多人的手机、网银支付都是采用面容解锁。对人脸信息的使用处理,理应严格遵守信息保护边界,要避免随意泄露,给骗子可乘之机;更要明确技术使用范围,严防被滥用。

为了规范人工智能发展,尤其是规避AI换脸带来的系列问题,去年12月,《互联网信息服务深度合成管理规定》正式发布,对数据和技术管理规范进行了明确。比如,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。

简单来说,这些技术服务公司,不能随便使用普通人的人脸来换脸,必须经过本人同意,换脸不是想换就能随便换,也不是骗子给钱就能随便换。如果就此案深挖下去,不排除能揪出一条非法利用人工智能技术的黑产业链。

当然,人工智能开发还是一个高速成长的领域,规则的健全完善还需要时间。但不管怎么说,此次案件都提醒我们,技术被滥用的风险,对普通人造成的安全隐患和威胁,绝对不容低估。

大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好保护每个人的信息和财产安全。

加载中...