近日,各个WhatsApp朋友圈中,有人接连转发了一个中国国家主席习近平用英语(另一个还兼说韩语)演讲的视频。有人表示惊讶,有人坚持说那是通译员的声音,但平时有读报,懂得“深伪”(deepfake)的人,马上就知道,那只是现代电脑科技的玩意儿。

深伪技术落到一些吃饱没事干的人手里,用来制作以上的恶搞或恶作剧视频,把无知者骗得团团转,从中得到一些快感,这倒无伤大雅。受骗的人也只是蒙受一些精神和心理“损失”,觉得自尊受伤,怎么活了一大把年纪,吃了那么多盐,结果竟然被一个社交媒体上流传的视频给耍了!但深伪技术落到骗子或别有居心者手中,结果可能就很不一样了。

人工智能科技的发展是无法阻挡的,它必会逐渐渗透到我们的生活中。和其他新技术发明一样,人工智能能给我们带来诸多好处和各种用途。但也有与之俱来的坏处,如成为行骗的新工具。就如有了刀,就会有人死于刀下,有了枪就会有人死于枪下,有了深伪技术就肯定会有人被骗,问题是要如何确保情况不会失控,以及对社会产生过大的负面效应。比如说,若涉及深伪技术的骗案和假消息越来越多,人际关系的互信肯定会越来越薄弱。

朋友圈中,有些人至今仍然非常排斥使用PayNow或PayLah!之类的电子付款方式,宁可继续开支票,主要就是担心受骗,或是个人资料和密码被盗取。很多人现在也拒接号码看起来陌生的电话。小心提防确实是必要的,但生活在这个数码化的时代,因担心受骗而完全拒斥数码科技或手机应用,就犹如因噎废食,也让自己成了时代的落伍者。正确的做法是勇敢面对,努力学习,不懂就问,拒绝投降。

小心提防确实是必要的,但生活在这个数码化的时代,因担心受骗而完全拒斥数码科技或手机应用,就犹如因噎废食,也让自己成了时代的落伍者。正确的做法是勇敢面对,努力学习,不懂就问,拒绝投降。

新加坡人看来似乎很好骗。去年10月间,非营利组织全球反诈骗联盟(Global Anti Scam Alliance)和数据服务提供商ScamAdviser发布的联合研究报告说,从2022年8月至2023年8月的一年期间,诈骗团伙在全球估计诈骗了约1.02万亿美元(约1.4万亿新元),其中新加坡受害者平均损失4031美元(约5538新元),是全球最多的。这两个团体的数据显示,2020年全球诈骗损失约为478亿美元,2021年则为553亿美元,可见诈骗案在全球范围内也是不断在飙升。

作者是前新闻工作者、前国会议员

除了诈骗,深伪技术如今也常被用来散播虚假信息。同样是在上个月,就有唯恐天下不乱之徒,利用深伪技术,假借黄循财之名,认可某一种产品的假消息,以及说政府将重启冠病阻断措施。无良者利用深伪技术散播假消息,动机可能有多种,有者可能也就是恶作剧,有者为了骗钱,也有的则可能有不可告人的目的,最严重的是试图煽动涉及种族、宗教、文化等方面的情绪,试图制造社会分裂。要能不受这类假消息的蛊惑,国人就必须对深伪科技有一定的认知才行。

过去一年,形形色色的骗案频频发生,因此,诈骗的“诈”荣任2023年度《联合早报》“字述一年”的年度汉字并不奇怪。据警方去年9月份发表的数据,本地去年上半年发生的诈骗和网络罪案年比激增将近七成(69.4%),达2万4525起。其中,诈骗案占91.1%,达2万2339起,年比增加64.5%,受害者损失的金额为3亿3450万元。自2019年以来,骗术也日新月异,骗案逐年上升,让警方疲于奔命。这样的趋势不知还会持续多久?

上星期五(2023年12月29日),李显龙总理特地在脸书贴文,提醒公众小心被深伪视频所骗。他说,近日出现了一些利用他的音频制作的深伪视频,宣传加密货币骗局。骗徒利用李总理接受CGTN主持人邹韵访谈的录像,配上假音频,谎称他有包赚钱的加密货币投资机会,并推广一个由特斯拉首席执行官马斯克(Elon Musk)设计的“革命性投资平台”。

因此,李显龙总理几乎同时向国人发出了看似相互矛盾的两则信息,在上述脸书贴文中,他指出利用深伪技术传播虚假信息会与日俱增,因此我们须保持警惕,学会保护自己和亲人免受这类骗局的侵害。在新年献词中,他则强调,人工智能和机器人技术领域快速发展,为我国企业和人民带来巨大的发展潜力,除了协助企业掌握新技术,劳资政三方也会携手支持每一名国人自我提升和掌握新技能。实际上,这是一个铜板的两面。一面是要小心防伪,一面则是得拥抱新科技,并学会掌控它,使之为我们所用;两者是并行不悖的。

利用名人来设投资陷阱,诱骗人们点击链接的做法,现在已经很普遍。那些经常到YouTube找视频者,几乎天天都会看到这样的诳骗视频。除了李显龙,像副总理黄循财和其他朝野政界人物,淡马锡信托基金会主席何晶等名人,几乎都被上过视频。至于有多少人因此信以为真去“投资”受骗则不得而知。

今天,网络和手机已成了各种散播假消息者最便利的工具,因为它们和一般人的生活已密不可分,任何信息都可在弹指之间通过网络发送出去,无边无际地散播。如果用上深伪技术,包含假信息的音频或视频就显得更加逼真,也更加难以辨认。比如电话的另一端若传来的是亲人熟悉的声音,怎会叫人立即怀疑是假的呢?如果传来的是求救之类的紧急信息,那就更容易叫接听者心慌意乱,不知所措而上当。

仔细比对发音和嘴型,你会真的以为习近平在用英语或韩语发言。果真有这样的事,一般主流媒体早就炒翻了,还等社交媒体来爆料吗!诸如此类的视频其实多得很。如美国总统拜登以纯正的北京腔华语发言,美国女歌手泰勒丝(Taylor Swift)讲标准华语等等。

这类造假视频,用的是人工智能和深伪技术,通过现成软件,可以很容易给人“换脸”,以及克隆一个人的声音。所谓深伪,据维基百科的解释,是深度伪造的简称,是英文deep learning和fake的混成词,专指基于人工智能的人体图像合成技术的应用。技术可将已有的图像或影片叠加至目标图像或影片上。伪造面部表情并呈现至目标影片的技术,早在2016年就已出现。

深伪技术越是发展,辩伪的难度必然会越来越高。据报道,南洋理工大学的计算科学与工程学院的一组研究人员,正在开发一种人工智能科技,利用一张人脸照片,就能做出各种脸部表情。如果这样的技术用在元宇宙,将使虚拟世界变得更加真实。