英国官员警告各公司谨慎将人工智能驱动的聊天机器人整合到业务中,称越来越多的研究显示它们可能会被用于执行有害任务。
NCSC说,这可能带来风险,特别是如果这些模型被插入到公司的业务流程中。学者和研究人员发现了通过向聊天机器人输入恶意指令或欺骗它们绕过内置防护措施的方法。
延伸阅读
各国当局正在应对大语言模型的崛起,例如ChatGPT,企业正在将其整合到各种服务中,包括销售和客户服务。
这些AI驱动的工具被用作聊天机器人,不仅可以替代互联网搜索,还可以替代客服和销售电话。
NCSC说:“使用大语言模型构建服务系统的组织需要谨慎,就像使用测试版产品或代码库一样。他们可能不会允许该产品代表客户进行交易,而且不会完全信任它。”
例如,如果黑客成功更改了它的询问,一家银行的AI驱动的聊天机器人可能会被欺骗进行未经授权的交易。
路透社报道,英国国家网络安全中心(NCSC)星期三(8月30日)发布的博客文章中说,专家们尚未完全掌握与生成类似人类响应的算法相关的潜在安全问题,这些算法被称为大语言模型。