眼见不为凭!AI诈骗连视讯都能,怎麽分辨真假?|专家论点【朱楚文】 – 专家论点 – TechNice科技岛-掌握科技与行销最新动态

生成式AI让诈骗更加真假难分,这或许大家已经逐渐有意识,不过你可能以为还只有图片与声音,事实上是现在AI生成影像的诈骗才是令人难防。

作者:朱楚文(IC之音竹科广播《科技领航家》主持人)

上一篇文章提到AI网红爆红案例,赚得比真人网红甚至明星还多,这一篇要来谈谈当虚实难辨时,势必会衍生的越来越严重的问题:AI诈骗。

生成式AI让诈骗更加真假难分,这或许大家已经逐渐有意识,不过你可能以为还只有图片与声音,事实上是现在AI生成影像的诈骗才是令人难防。

前阵子有新闻,周汤豪的粉丝被AI版假周汤豪诈骗了50万台币,在这一宗诈骗案例中,已不只是惯用的加Line群组聊天,而是假周汤豪直接打电话给粉丝!试想,当你心爱的偶像打视讯电话给你,模样真实出现在你眼前,你会不会真的很难分辨、容易相信?

这位粉丝於是就相信假周汤豪说律师小孩需要钱看医生,於是汇款50万台币才惊觉诈骗。而在香港,甚至有不法分子运用AI换脸程式Deepfake,冒充报失身分证的市民,瞒过金融机构的人脸办析系统,骗取7万元港币贷款。想想真的不可思议吧!

这也难怪在创新工厂李开复先生的AI 2041这本书中,特别提到未来的一个场景是:人人出门都会带面具,因为当不法分子可以撷取到你的面容,就可以生成各种虚拟诈骗,保护脸会成为我们的日常!

但对於已有大量声音节目或影像在网路上的公众人物来说,实在是很难保护自己,毕竟已有太多公开素材可能被拿去冒用,就如周汤豪的例子,他也是有够衰,所以除了希望政府尽快执法和想方法杜绝之外,也提醒各位如果有任何你追踪的公众人物、偶像、KOL主动联系你,不管是声音或影像,都要记得存疑,特别是如果涉及汇款大量金额,请务必当心诈骗。

另外,现在也出现仿照小孩声音诈骗父母的案例,各位也要特别当心。听闻已有不少公司开始对内宣导防范AI诈骗,我先前在节目中访谈Gogolook的经理,他也分享几招防范之道:

1. 问关键问题:简单来说,就是问通关密语,你可以问一些比较私密的问题,把自己想像成银行在确认对方身分一样,例如询问国小念哪?以前养的狗叫什麽名字?某个亲戚现在住哪?以此确认对方是不是假AI仿照。

2.多方确认:假设遇到熟悉亲友声音或影像来电,听完内容後,不要立刻相信,请记得打电话回去给本人做确认,或是多方确认内容,避免受骗。

在生成式AI爆发的时代,彭博社报导,今年全球诈骗和网路犯罪,已造成8兆美元损失,金额甚至超过日本GDP!换句话说,古人那一句:眼见为凭,恐怕不再适用,面对以假乱真的诈骗趋势,我们只能多费点力,不要让自己的善良成为恶者宰杀的牺牲。