延伸阅读
深伪音频更难辨别
为应对深伪技术给国家社会造成的危害,内政科技局自2022年下半年起成立了一个团队,深入研究和了解最新的深伪音频技术,目前已成功开发出能识别数种深伪音频的人工智能模型,并将继续提升模型能力,日后可助内政团队加强打击深伪的能力。
然而,当不法之徒熟悉这项技术后,就开始运用在不同的犯罪活动中,例如散播假消息或用来进行不同类型的诈骗,包括冒充他人行骗等。
他强调,团队的研究会持续进行,并会和这个领域的专家学者合作,一同开发更先进的技术,协助团队更准确地侦测深伪音频或深伪视频,从而继续加强团队所开发的模型。团队也正在设计软件工程,让人工智能模型能成为正式的软件,内政团队人员可多加使用加强执法能力。
谢俊凯说,深伪音频对一般人来说“更加危险”,因为一般人很难分辨音频的真伪,而随着科技进步,深伪音频中可能只会出现非常短暂的干扰。同时,科技的进步意味着不法之徒能用不同程序或软件生成深伪音频。“因此,我们的人工智能模型是通过分析音频,找出一些指定的‘缺陷或生成的痕迹’,从而确认是否是深伪音频。”
内政科技局早在2022年初就了解到深伪技术可能被用来进行非法勾当,并从那时起设立团队开始探讨这个课题。也从那年下半年开始,谢俊凯的团队就发展能探测和分辨深伪音频和深伪视频的能力。
基于保密理由,谢俊凯无法透露现阶段模型能探测多少种类型的深伪音频,但表示已取得长足的进展。“只是在现阶段,我们的模型虽能很好地侦测一些类型的深伪音频,在侦测其他类型上还有待加强。”
深伪技术(deepfake)近年来被不法之徒滥用来行骗或散播假消息等,本地不少名人政要的视频也被深伪来行骗。为对抗这类新形态的犯罪行为,新加坡警察部队和内政科技局正加紧研究,提升侦查人工智能科技生成的音频和视频的能力。
“我们采用最先进的人工智能算法,同时使用开源(open-source)的深伪音频数据进行培训。我们还使用自己生成的深伪音频来训练我们的人工智能模型(AI Model),从而提升模型的探测能力。”
香港警方2024年2月就接到首起利用深伪技术进行多人视频会议的诈骗案。骗子通过多人视频会议,利用人工智能技术伪造其他与会者的样貌和声音,骗走2亿港元(约3437万新元)。
内政科技局情报感知和监控专业研究中心副署长谢俊凯(43岁)接受《联合早报》专访时说,深伪技术可以运用在许多对人类有益的事务上。“例如有剧组运用类似的技术重现一名因病失声演员的声音,或在教育课程中重现一些历史人物的声音和影像,来丰富教学体验。”