针对治理框架涉及九方面,新加坡电脑学会会长刘连万受访时说,涵盖范围全面,这对仍处于新兴阶段的生成式人工智能行业来说非常有帮助。他认为治理框架可为企业和用户提供保障,但同时不限制开发者的创新。“如果条例过于严格,生成式人工智能就可能达不到它的用处,得由别的科技取代。”

刘连万也说,当局采取咨询治理,听取各方的意见。“虽然治理框架面向国际社会,但本地公众也可提供反馈,助政府制定适用于本地的政策。”

延伸阅读

我国推出面向国际社会的生成式人工智能治理框架,业者反映说这有助进一步规范整体业界,但同时也须保留创新的空间。

人工智能发展迅速,新加坡多年来把握时机,推出相应的措施管制。在2019年,我国就推出全球首个人工智能治理框架,进而创办人工智能验证基金会(AI Verify Foundation),促进国际社会的合作。 

人工智能运用广泛 全球管控机制仍处初期阶段

国际商业机器公司(IBM)新加坡总经理和科技主管陈顺源说,数据对业者而言非常重要,须确保使用正确的数据,并掌握数据的来源和转变是否有任何异样。业者也须确保模型是可解释(explainable)的,以减少有害或虚假内容,以及偏倚的情况。

除了人工智能相关的偏见、滥用和难以解释等长期存在的老问题,生成式人工智能也带来新的挑战,包括版权、价值观和制造幻觉等。尽管生成式人工智能的运用广泛,但全球的管控机制仍在初期阶段。

ChatGPT在2022年11月推出后席卷全球,经过短短一年多的时间,人们已广泛使用各种生成式人工智能。其中最普遍的生成式人工智能媒介是文字,如ChatGPT和谷歌BARD,可生成电邮、论文、旅游行程等。另外,也有业者开发了图片、幻灯影片等多种媒介的生成式人工智能。

IBM是基金会的主要成员之一,和其他业者与政府一同探讨如何促进人工智能的发展。陈顺源说,治理框架强调了问责制的重要性,业内各方都须负起责任。

资讯通信媒体发展局(IMDA)和人工智能验证基金会早在去年就开始针对生成式人工智能进行讨论,并推出多个评估报告。新的生成式人工智能治理框架,就是经过当局和不同利益相关者讨论后制定的。