OpenAI遭实锤:研究称其AI模型“记住”了受版权保护的内容

IT之家
06 Apr

IT之家 4月6日消息,一项新研究似乎为OpenAI至少使用部分受版权保护内容来训练其人工智能模型的指控提供了依据。

IT之家注意到,OpenAI正面临由作家、程序员以及其他版权持有者提起的诉讼,这些原告指责该公司在未经许可的情况下,使用他们的作品——包括书籍、代码库等,来开发其模型。尽管OpenAI一直声称其享有合理使用的抗辩理由,但原告方则认为美国版权法中并无针对训练数据的豁免条款。

该研究由华盛顿大学、哥本哈根大学和斯坦福大学的研究人员共同撰写,提出了一种新方法,用于识别像OpenAI这样通过应用程序接口(API)提供服务的模型所“记忆”的训练数据。

AI模型本质上是预测引擎,通过大量数据训练,它们能够学习各种模式,从而生成文章、照片等。虽然大多数输出并非训练数据的逐字复制,但由于模型的“学习”方式,部分内容不可避免地会被模型记忆下来。此前已有研究发现,图像模型会重复生成其训练数据中电影的截图,而语言模型则被观察到存在剽窃新闻文章的行为。

该研究的核心方法依赖于研究人员提出的“高意外性”词汇,即在大量作品中显得不常见的词汇。例如,在句子“Jack and I sat perfectly still with the radar humming”中,“radar”(雷达)一词被认为是高意外性的,因为从统计学角度来看,它出现在“humming”(嗡嗡作响)之前的可能性比“engine”(引擎)或“radio”(收音机)等词要低。

共同作者对包括GPT-4和GPT-3.5在内的几种OpenAI模型进行了测试,通过从虚构小说片段和《纽约时报》文章中移除高意外性词汇,然后让模型尝试“猜测”被屏蔽的词汇,来寻找记忆迹象。研究人员认为,如果模型能够成功猜出这些词语,则很可能表明该模型在训练过程中记忆了这些片段。

根据测试结果,GPT-4显示出记住了流行小说书籍的部分内容,包括一个包含受版权保护电子书样本的数据集BookMIA中的书籍。结果还表明,该模型记住了《纽约时报》文章的部分内容,尽管比例相对较低。

华盛顿大学的博士生、该研究的共同作者阿比拉沙・拉维奇汉德(Abhilasha Ravichander)对TechCrunch表示,这些发现揭示了模型可能接受训练的“有争议的数据”。

长期以来,OpenAI一直倡导放宽对使用受版权保护数据开发模型的限制。尽管该公司已经达成了一些内容许可协议,并提供了允许版权所有者标记不希望其用于训练的内容的退出机制,但该公司一直在游说多个政府将围绕人工智能训练方法的“合理使用”规则编入法典。

Disclaimer: Investing carries risk. This is not financial advice. The above content should not be regarded as an offer, recommendation, or solicitation on acquiring or disposing of any financial products, any associated discussions, comments, or posts by author or other users should not be considered as such either. It is solely for general information purpose only, which does not consider your own investment objectives, financial situations or needs. TTM assumes no responsibility or warranty for the accuracy and completeness of the information, investors should do their own research and may seek professional advice before investing.

Most Discussed

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10