中关村在线

热点资讯

微软拒认Copilot四大安全问题 引发AI漏洞界定争议

1月7日,有安全研究人员披露,其向微软报告了关于Copilot的四项潜在安全问题,但相关反馈被官方驳回,此事在网络安全领域引发了对人工智能系统漏洞界定标准的广泛讨论。

安全工程师John Russell近日在社交平台表示,他已向微软提交了四个与Copilot相关的问题案例,包括通过Base64编码绕过文件上传限制、实现命令执行以及诱导模型泄露系统提示词等行为。然而,这些报告随后被关闭,理由是不符合漏洞修复的认定条件。

据描述,其中一项技术涉及将可执行文件转换为Base64格式的文本字符串,从而避开前端检测机制。当该文本在对话过程中被解码后,原始文件得以还原并被系统处理,实质上绕过了原有的安全策略。此外,研究者还演示了如何利用特定输入指令使模型输出其内部使用的系统提示内容,这一过程属于典型的提示注入攻击路径。

对此,微软方面回应称,所有提交事项均已依据其公开发布的AI安全评估框架进行审查。公司认为,若相关行为未突破预设的安全边界,例如未导致跨用户数据泄露或未获得未授权访问权限,则不构成传统意义上的安全漏洞,而应归类为当前生成式人工智能技术的已知局限。

这一立场引发了业内不同声音。部分技术人员认为,尽管此类现象在大型语言模型中普遍存在,但能否有效防御已知攻击模式仍应作为产品安全性的重要衡量指标。有观点指出,已有其他厂商的模型在类似场景下表现出更强的防御能力,说明输入验证和上下文隔离仍具备优化空间。

与此同时,也有安全组织持审慎态度,认为系统提示词的暴露本身并不必然等同于高风险事件,除非其直接导致敏感信息外泄或核心防护机制失效。当前,围绕AI系统的威胁模型仍在演进中,如何界定“漏洞”与“功能边界”,仍是行业亟需统一认知的关键议题。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多
说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具