中关村在线

热点资讯

谷歌语言模型信息准确性受质疑 工作人员被允许评估所有领域

谷歌大型语言模型 Gemini 的外包评估流程进行了一项调整,引发了外界对其在敏感领域信息准确性方面的担忧。这项调整要求外包评估员不得再以自身专业知识不足为由跳过某些特定的评估任务,这可能导致 Gemini 在医疗保健等高度专业性领域的信息输出出现偏差。

此前,如果评估员认为某个问题超出了自身专业领域,例如一个关于心脏病学的专业问题,而评估员本身并无相关科学背景,他们可以选择“跳过”该回应,从而避免评估针对该提示的人工智能回复。然而,最近 GlobalLogic 宣布了一项来自谷歌的变更:评估员不得再以缺乏专业知识为由跳过任何提示。

这一调整引发了一些人对 Gemini 准确性的担忧。内部通信显示,“您不应跳过需要特定领域知识的提示。”取而代之的是,评估员需要“评估您理解的提示部分”,并注明自己缺乏相关领域知识。这意味着现在一些完全不熟悉的、高度专业的技术性人工智能回复将被纳入评估范围,比如关于罕见疾病的问题。

一位合同工在内部通信中表示:“我原以为跳过的目的是通过将其交给更专业的人来提高准确性?”

虽然新的指导方针明确提到只有两种情况下可以跳过提示:一是提示或回复“完全缺失信息”,二是提示包含需要特殊同意书才能评估的有害内容。但是外界仍然担心,这种做法可能会对用户造成误导,在涉及健康等重要问题时,不准确的信息可能会带来严重后果。

目前尚不清楚谷歌是否会对此做出回应。不过可以看出,这项调整将会增加 Gemini 输出不准确信息的风险,并引发了外界对其准确性方面的质疑。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具