AI诈骗屡屡得逞,如何识别和防范?

AI诈骗屡屡得逞,如何识别和防范?
2023年05月25日 15:02 京报网_北京日报官方网站

近日,全国多地警方发布了多个“AI诈骗”的典型案例,引发关注。网络安全从业人员告诉记者,当下AI技术的发展使得技术运用门槛降低,容易被不法分子利用。昨天,中国互联网协会发布公告提醒,面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。

调查

大量软件可实现换脸 质量高,速度快

网络安全从业人员小郑告诉记者,随着人工智能技术的发展,不少例如AI换脸、AI语音合成的技术门槛已越来越低。小郑介绍,如今AI替代了合成技术人员,能够在犯罪分子使用简单指令和操作下,自动完成细致到毛发、光影都真实的合成图片。并且AI的工作效率能短时间生成大量图片合成视频,这样也就实现在视频中以假乱真换脸。

在专业人员指导下,记者体验了多款AI换脸合成工具。其中一款国外软件被称为效果最好最自由的工具,本意是为了帮助艺术创作者提高工作效率,最后却因功能强大和免费开放下载,成为当前AI换脸违法行为的主要工具。记者在电脑上安装好软件后,使用网络下载的明星脸部模型,加上网络分享的指令,最快5秒就能生成一张该明星极为真实的照片,而通过指令的改变可以随意切换场景、人物动作、表情等细节。

记者在手机软件下载程序中搜索“AI换脸”,可以搜索到数十种各类换脸软件,而一些主流的短视频软件中,也出现了植入的换脸特效。记者使用发现,只要上传自己的一张照片,再配合软件给出的一些影视片段、网络视频,就可以自动生成换脸视频。

合成搭配声音的视频 成本低至数十元

除了快速AI换脸,用AI手段合成或克隆声音也越来越常见。

一位商家向记者介绍,只需要提供某人一段10分钟至30分钟的声音素材,要求没有杂音,就能用2天左右时间生成一个专属模型,后续输入任何文字,发出的都是这个人的声音。“这个办法属于一劳永逸,而且这个模型不仅能读文也能唱歌。一般来说,提供的素材时间越长,最终相似度越高。”上述商家介绍。

据了解,目前制作一套“露脸且说话”的视频成本不高。七七(化名)专门在网上接单用AI帮别人生成视频,“只需提供一张背景干净的正面照,我就能生成视频,不仅眼睛、嘴巴都会动,还能时不时动动头,非常自然。另外如果你提供文字,我还可以让视频中的人物口型对上,配合度很高,可以连续播放1分钟。”七七表示,用照片生成一段1分钟时长的视频仅需30元左右。上述商家也表示,生成一个专属模型也只需要几十元。这意味着,如果有人蓄意生成你的长相搭配你的声音的视频,花费也仅需数十元。

防范

如何识别和防范AI换脸?

一名经常使用AI进行写真创作的设计师告诉记者,AI制作的真人照片与视频如今还存在一些没有完善的地方,例如AI生成的人眼神会比较奇怪,常出现瞳孔不自然,呆滞无神的情况。此外,一些人物身体细节也是容易出错的区域,例如手部手指的不自然、人体比例的不协调等。

与此同时,也有不少平台开始尝试利用技术手段识别AI生成图片。记者在抖音、哔哩哔哩、小红书等平台看到,一些看似真实的照片被识别判定为AI生成内容,使用眼神、手部等细节观察法,确实也能发现照片为假。不过类似平台的技术手段依然存在不准确的问题,不少作品明确注明AI创作的情况下,判定系统未能识别成功。

除了平台加大对AI生成内容的管控提醒,个人也需提高警惕,在碰到涉及转账、支付等情况时,可以通过特殊的问题提问等形式来确定对方身份。中国互联网协会表示,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。

多位AI图像技术使用者告诉记者,大众在使用社交软件时,一定要尽可能少发布个人正面照片或视频,不提及年龄、工作、所在地等内容,减少个人信息的暴露。

来源:北京晚报据扬子晚报 澎湃新闻等

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部