OpenAI 发布了迄今为止最自主的 AI 工具:ChatGPT 的一个版本,它可以浏览网页、运行应用程序,并在几乎无需人工输入的情况下完成现实世界的任务。然而,随着能力的飞跃,也带来了一个严峻的警告:这项技术也可能引发新一波安全威胁。
ChatGPT Agent 于周四推出,它使用户能够委派复杂的任务,例如计划假期、预订酒店房间、研究竞争对手、生成幻灯片,甚至在线下订单。
该功能将于今日开始向 Pro、Plus 和 Team 用户推出。
为了完成任务,代理人使用虚拟计算机和一套统一的工具,包括基于文本的浏览器、终端以及对 Google Drive 和 GitHub 等第三方应用的访问。虚拟计算机是一个在云端运行的模拟计算环境,ChatGPT 代理可以独立控制它——有点像给 AI 一个专属的沙盒机器来执行实际工作。
OpenAI 首席执行官 Sam Altman 在产品开发团队成员进行的直播演示中表示:“我认为这代表了人工智能能力的全新高度。”然而,此次直播也值得关注,部分原因在于 OpenAI 发出了大量“买家须知”的警告。
“这是一种新的人工智能使用方式,但也会带来一系列新的攻击,”Altman 说道。“随着人们越来越多地以这种方式开展工作,社会和技术必须不断发展,学习如何缓解我们甚至无法想象的威胁。”
举个例子:客服人员可能会研究某笔购买行为,在钓鱼网站上找到该商品,然后提供用户的信用卡信息。为了缓解这个问题,当前版本设置了多项安全措施,例如,在用户手动批准之前,会阻止用户上传信用卡信息。
OpenAI 研究员 Casey Chu 表示:“我们已经训练模型忽略高风险网站上的可疑指令。我们还设置了监视器,用于监视代理的行为,并在发现任何可疑行为时阻止其执行。”
Chu 补充说,虽然系统保障措施可以实时更新,但 ChatGPT 代理仍然是一种“尖端产品”,为新的攻击形式打开了大门。
他说:“用户了解风险并认真考虑他们所分享的信息非常重要。”
ChatGPT Agent 的发布正值人工智能开发者致力于为虚拟助手赋予日益强大的功能之际。周三,谷歌在谷歌搜索中推出了一项新的人工智能功能,使其 Gemini AI 能够电话代表用户向企业提供。
OpenAI 的一位代表表示:“ChatGPT Agent 仍处于早期阶段,我们正在利用这段时间从实际使用中学习,以改进产品和我们的安全措施。”解密“当前的系统卡反映了我们目前的方法,但我们正在为下一步做准备,并将继续分享更新,以使代理变得更好、更安全。”
网络安全专家也对自主代理的影响表示担忧。
网络安全公司 0rcus 联合创始人兼首席执行官 Nic Adams 表示:“高度关注是理所当然的,因为代理拥有在对话过程中透露个人身份信息的隐性权限。用户应该授予细粒度且可撤销的权限,例如目标业务、用途、允许的数据元素以及到期时间戳。”
在最佳实践方面,亚当斯建议,在执行之后,代理人应提交完整的记录以供批准,然后再将任何信息存储超过法律要求的时间。
他说:“默许的、一刀切的同意会将责任转嫁给用户,而用户却无法真正控制。因此,有必要建立一个按任务确认的模型。”
除了让人工智能代理进行购买或制定计划的风险之外,OpenAI 研究人员还一致认为,这种程度的自主性会带来新的威胁,尤其是即时注入攻击,即恶意输入诱骗人工智能泄露数据、传播错误信息或采取未经授权的行动。
为了降低这些风险,OpenAI 开发了接管模式。顾名思义,该模式赋予用户接管代理并自行输入信息的权力,而无需依赖代理。在某些情况下,ChatGPT 代理会在执行重要操作(例如购买商品或访问敏感数据)之前请求用户的明确批准。
“我们已经构建了一个强大的工具,但用户需要保持谨慎,”Chu 说。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com