阿里巴巴升级开源AI模型 支持输入首尾帧生成视频

格隆汇
04-18

格隆汇4月18日|阿里巴巴周四在声明中,该公司发布了最新的开源人工智能模型,只需要提供两张照片作为首帧和尾帧便能自动生成视频。该模型基于该公司的Wan2.1基础模型架构,为短视频创作者提供了更高的创作自由度。这款被称为Wan2.1-FLF2V-14B的模型可在HuggingFace、GitHub以及阿里云的魔搭社区找到。用户可在通义万相官网上免费制作时长5秒的视频。

网页链接

免责声明:投资有风险,本文并非投资建议,以上内容不应被视为任何金融产品的购买或出售要约、建议或邀请,作者或其他用户的任何相关讨论、评论或帖子也不应被视为此类内容。本文仅供一般参考,不考虑您的个人投资目标、财务状况或需求。TTM对信息的准确性和完整性不承担任何责任或保证,投资者应自行研究并在投资前寻求专业建议。

热议股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10