据报道称,OpenAI旗下的AI语音转写工具Whisper存在严重缺陷,其能够无中生有地创造虚假信息。这一消息引起了广泛关注。尤为引人注目的是,一些医疗机构公开承认使用了Whisper来记录医生与患者间的会诊内容。
目前,包括美国明尼苏达州曼卡托诊所、洛杉矶儿童医院在内的众多医疗机构已经采用了基于Whisper的法国AI诊疗公司Nabla开发的工具。然而,值得注意的是,在“高风险领域”内应用Whisper并不是一个明智的选择。
一位机器学习工程师初步分析超过100小时的Whisper转录数据时发现,其中约有一半的内容存在“幻觉”现象,即转写内容与原始语音严重不符。关于这个问题的具体成因目前还不得而知。
软件开发者推测,这些虚构内容可能与语音中的停顿、背景噪音或音乐播放等因素有关。针对这个问题,OpenAI方面表示正在积极研究如何有效降低虚构内容产生的概率,并对研究人员的发现表示感谢。
同时,OpenAI还承诺将在后续的模型更新中融入相应的反馈机制,以期进一步提高转写的准确性和可靠性。
评论