近年来,大型语言模型(LLM)技术取得了显著进展。然而,在背后隐藏着版权纠纷的阴影。科技巨头们利用海量文本数据来训练这些LLM模型,往往涉及受版权保护的作品,这引起了作者和媒体组织的强烈反对。
最近,Meta(原名Facebook)因在其“Books3”数据集训练其LLAM 1和LLAM 2模型中使用大量盗版书籍而面临包括喜剧演员Sarah Silverman和作家Richard Kadrey等一众作者的集体诉讼。尽管Meta承认使用了Books3数据集,但他们拒绝向作者支付适当的补偿金。
Books3是一个由AI研究者Shawn Presser于2020年创建的数据集,包含19.5万本图书、总容量近37GB,旨在为改进机器学习算法提供更好的数据源。Meta将其用于训练自己的LLAM模型,但在其中包含了大量从盗版网站Bibliotik抓取的受版权保护作品,从而使得Meta的行为陷入了法律困境。
值得注意的是,《纽约时报》也曾因为OpenAI和微软使用其文章训练聊天机器人ChatGPT而对其提起诉讼。OpenAI辩称,不使用受版权保护的材料来训练AI模型几乎是不可能的,并要求法院驳回相关诉讼。与之不同,Meta声称其使用Books3数据集属于合理使用范畴,无需获得许可、署名或支付补偿。
此外,Meta还对这些诉讼是否属于集体诉讼持有异议,并拒绝向那些起诉他们的人提供任何形式的经济“补偿”。需要指出的是,Books3数据集中部分内容来自丹麦反盗版组织Rights Alliance下架后面临的数字存档禁令。
评论