英国三分之一的公司中有一家使用大型语言模型(LLMS)时担心数据的安全性,因为它们是从助手而来的,这些助手会响应命令或问题,使其成为独立的系统,而这些系统而没有持续不断的人类干预。
结果,这些组织犹豫不决人工智能代理进入他们的操作系统,因为他们担心将数据和安全性失去可以“自我思考”的机器失去控制。
英国政府正在采取措施解决这些挑战。 内阁办公室部长帕特·麦克法登(Pat McFadden)宣布对情报评估进行解密,表明AI将在未来几年内升级网络威胁。
在2024年,NCSC收到了近2,000个网络攻击报告,近90个被视为“重要”,而“严重程度最高”。与前一年相比,这是严重攻击的三倍。
英国的企业必须遵守严格保护人数据并防止其滥用的法规,例如英国数据保护法以及欧盟一般数据保护法规(GDPR)。
违反这些法律的公司有法律行动并损害其声誉,因此他们正在重新考虑其LLM策略。 AI可以透露私人信息或在不仔细的人类监督或准确提示的情况下产生误导性结果。
最初,像聊天机器人这样的人工智能工具提供了固定的答案,而智能恒温器只是通过遵循简单的规则,不从新数据,先前的操作或其决策结果中思考或学习来改变温度。但是,今天的AI代理使用LLM从数据中学习,根据新信息更改其行为,并通过像人类这样的推理来解决不同的问题。
但这只有很大的关注点,因为人们还可以促使代理人处理任务,并且将其分解为较小的活动,单独解决每个活动,然后评估结果。此外,有些代理可以合作处理复杂的任务,其中一个可以在工作中工作,而另一个则检查结果以改善结果。
即使这种增长有助于企业自动化运营并减少了人类团队所使用的时间,但这也是一个威胁,因为这些代理商自己做出的决定越多,我们就越难充分理解,预测或控制他们在做什么。同样,他们的错误后果可能会成倍增长,因为这些AI代理在没有停止人类投入的情况下行动。
英国的许多公司在日常运营中使用AI代理商,并使用客户服务,人力资源(HR)等部门进行营销,并慢慢地测试工具并敏锐地监视它们。
一个很好的业务例子是宠物在家,该宠物为其兽医人员建立了AI代理,以在宠物检查期间提供快速答案和支持,这表明AI代理在实际工作中仍然有用。
目前,大多数代理AI系统都需要人们指导他们,检查工作并修复错误,因为他们还没有准备好在没有监督的情况下完全替换人类。但是,未来可能会要求公司做出艰难的决定,使他们能够将AI代理纳入系统,同时保持控制。
钥匙差线帮助加密品牌快速突破并统治头条新闻
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com