据美联社报道,超过十位软件工程师、开发人员和学术研究人员近日指出,OpenAI的语音转写工具Whisper存在一个重大缺陷:有时会凭空生成大段甚至整句虚假内容。
这些专家注意到,这些生成的文本可能涉及种族言论、暴力措辞,甚至杜撰的医疗建议。这一问题令人担忧,因为Whisper已被广泛应用于全球多个行业,包括翻译和转录访谈内容、制作视频字幕等。更危险的是,在一些医疗机构中,基于Whisper的工具被用于记录医生与患者的咨询记录。
研究人员和工程师在工作中经常遇到Whisper的“幻觉”现象,问题的整体规模尚不清楚。密歇根大学一位研究员发现,在尝试改进模型前,他所检查的十份音频转写中,八份含有虚构内容。
一位机器学习工程师透露,在最初分析的超过100小时Whisper转录中,他发现大约一半的内容存在“幻觉”现象。另一位开发人员进一步指出,在使用Whisper生成的26000份转录中,几乎每一份都带有虚构内容。即便是音质良好的简短音频样本也不能幸免于这些问题。
计算机科学家们最新研究表明,在他们审查的13000多段清晰音频片段中,有187段出现了“幻觉”现象。研究人员认为,这一趋势意味着,在数百万条录音中将可能出现数以万计的错误转录。
对此,OpenAI发言人表示将继续研究如何减少幻觉,并感谢研究者的发现,在模型更新中将会采纳反馈。
评论