中关村在线

热点资讯

大多AI模型无法识别“安全问题” 多模态输入后的输出结果不安全

最新研究发现,大部分多模态AI模型在处理用户多模态输入(如图片和文本)后的输出结果并不安全。这一名为《跨模态安全调整》的研究提出了一个全新的“安全输入但不安全输出”(SIUO),涉及到道德、危险行为、自残、侵犯隐私、信息误读、宗教信仰、歧视和刻板印象、争议性话题以及非法活动和犯罪等9个领域。

研究人员指出,大型视觉语言模型在接收多模态输入时很难识别SIUO类型的 安全问题,并且在提供安全响应方面也遇到困难。只有GPT-4v、GPT -o 和Gemini 1.5的得分高于50%。为了解决这个问题,需要开发能够综合所有模式见解并形成情景统一理解的语言模型,并且这些模型还应能够掌握和应用现实世界的知识,如文化敏感性、道德考虑因素和安全隐患等。

研究者还指出,语言模型需要通过对图像和文本信息进行综合推理来理解用户的意图,即使文本中没有明确说明。为解决上述问题,我们期待着更先进且安全可靠的语言模型的出现。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多
说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具