Sora是怎么训练出来的
2024-02-17 19:36

Sora是怎么训练出来的

本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:未尽研究,原文标题:《Sora是怎么训练出来的 | 笔记》,题图来自:视觉中国

文章摘要
本文介绍了OpenAI开发的视频生成模型Sora的训练方法和能力评估。Sora是一个通用模拟器,可以生成高清视频和图像,具有跨越不同持续时间、宽高比和分辨率的能力。

• 💡 Sora是基于Transformer架构训练的网络,用于降低视觉数据的维度。

• 💡 通过将视频压缩为低维度的潜在空间,Sora可以生成具有不同宽高比和分辨率的内容。

• 💡 Sora是一个扩散模型,通过输入噪声块和条件信息,可以生成逼真的视频和图像。

一分钟长的文生视频大模型Sora,如此逼真。OpenAI再次震惊了世界。


一分钟长的视频,是更漫长的征程的开端。OpenAI称他们所做的事情,是构建一个“物理世界的通用模拟器”。


Sora生成的电影预告片


OpenAI网站上的技术报告,主要提供了训练Sora的方法,以及对其能力和局限性的定性评估。技术报告的13位作者中,有4位华人。


报告也明确地说,不提供模型和实现细节。尤其是公众和监管者最关注的数据来源。但是,这篇报告所列举的32篇参考论文,已经提供了所有的方法和技术。


OpenAI用一句话概括:“我们利用了一种在视频和图像潜码的时空块上操作的transformer架构”。


具体点说就是:这帮大牛训练了一个网络,用于降低视觉数据的维度。许多专家认为其视频来源是Youtube。这个网络以原始视频为输入,输出一个在时间和空间上都被压缩的潜在表示。Sora在这个压缩的潜在空间内接受训练,随后也在此空间内生成视频。他们还训练了一个相应的解码器模型,将生成的潜码映射回像素空间。


应该掌握四个关键词:潜码(latent code),时空块(spacetime patches),扩展 (scaling),通用模拟器 (general purpose simulators)


许多之前的研究已经通过各种方法研究了视频数据的生成模型,包括循环网络、生成对抗网络、自回归变换器和扩散模型。这些工作通常专注于视觉数据的一个狭窄类别、较短的视频,或者固定大小的视频。Sora是一个视觉数据的通用模型——它可以生成跨越不同持续时间、宽高比和分辨率的视频和图像,最长可达一分钟的高清视频。


Sora是一个扩散模型;给定输入的噪声块(和条件信息,如文本提示),它被训练用于预测初始的“干净”块。重要的是,Sora是一个扩散Transformer,在多个领域展示了显著的扩展性能,包括语言建模、计算机视觉和图像生成。


Sora能够适应宽屏1920x1080p视频、竖屏1080x1920视频以及它们之间的所有格式。这使得Sora能够直接以不同设备的原生宽高比创建内容。它还允许我们在使用相同模型以全分辨率生成之前,快速原型化较小尺寸的内容。


简单地说,OpenAI集大成了先前的技术,而其中的每一项技术,都有过论文介绍,OpenAI在前人及同行研究的基础之上,构建出Sora,一个非常重要的原因,是它们坚信数据-Transformer-扩散-涌现这一法则。下面是所有的参考论文及其为Sora所用之处:


1. Srivastava, Nitish, Elman Mansimov, 和 Ruslan Salakhudinov. "使用LSTMs进行视频表示的无监督学习." 国际机器学习会议. PMLR, 2015.


2. Chiappa, Silvia, 等. "循环环境模拟器." arXiv预印本 arXiv:1704.02254 (2017).


3. Ha, David, 和 Jürgen Schmidhuber. "世界模型." arXiv预印本 arXiv:1803.10122 (2018).


(注:1~3,许多之前的研究已经通过各种方法研究了视频数据的生成模型,包括循环网络。)


4. Vondrick, Carl, Hamed Pirsiavash, 和 Antonio Torralba. "生成具有场景动态的视频." 神经信息处理系统进展 29 (2016).


5. Tulyakov, Sergey, 等. "MoCoGAN: 分解运动和内容以生成视频." IEEE计算机视觉和模式识别会议论文集. 2018.


6. Clark, Aidan, Jeff Donahue, 和 Karen Simonyan. "在复杂数据集上生成对抗视频." arXiv预印本 arXiv:1907.06571 (2019).


7. Brooks, Tim, 等. "生成动态场景的长视频." 神经信息处理系统会议进展 35 (2022): 31769-31781.


(注:4~7,生成对抗网络的方法与技术。)


8. Yan, Wilson, 等. "VideoGPT: 使用VQ-VAE和transformers生成视频." arXiv预印本 arXiv:2104.10157 (2021).


9. Wu, Chenfei, 等. "Nüwa: 为创造神经视觉世界进行视觉合成预训练." 欧洲计算机视觉会议. 瑞士: 施普林格自然, 2022.


(注:8~9,自回归Transformer。)


10. Ho, Jonathan, 等. "Imagen视频: 使用扩散模型生成高清视频." arXiv预印本 arXiv:2210.02303 (2022).


11. Blattmann, Andreas, 等. "对齐你的潜码: 使用潜在扩散模型合成高分辨率视频." IEEE/CVF计算机视觉和模式识别会议论文集. 2023.


12. Gupta, Agrim, 等. "使用扩散模型生成逼真视频." arXiv预印本 arXiv:2312.06662 (2023).


(注:10~12,扩散模型,如何逼真。)


13. Vaswani, Ashish, 等. "注意力就是你所需要的一切." 神经信息处理系统进展 30 (2017).


14. Brown, Tom, 等. "语言模型是小样本学习者." 神经信息处理系统会议进展 33 (2020): 1877-1901.


(注:13~14,作者从大型语言模型中受到的启发是,通过对互联网级数据进行训练,可以获得通用能力。)


15. Dosovitskiy, Alexey, 等. "一幅图像值16x16个词: 大规模图像识别的transformers." arXiv预印本 arXiv:2010.11929 (2020).


16. Arnab, Anurag, 等. "Vivit: 视频视觉transformer." IEEE/CVF国际计算机视觉会议论文集. 2021.


17. He, Kaiming, 等. "掩码自动编码器是可扩展的视觉学习者." IEEE/CVF计算机视觉和模式识别会议论文集. 2022.


18. Dehghani, Mostafa, 等. "Patch n'Pack: NaViT, 适用于任何宽高比和分辨率的视觉transformer." arXiv预印本 arXiv:2307.06304 (2023).


(注:15~18,Transformer已经被证明在计算机视觉中显示出非凡的扩展特征,能训练出适用于任何宽高比和分辨率的视频。)


19. Rombach, Robin, 等. "使用潜在扩散模型合成高分辨率图像." IEEE/CVF计算机视觉和模式识别会议论文集. 2022.


(注:通过把视频压缩成为低维度的潜码空间,把视频转换为时空块。 )


把视觉数据变成时空块


20. Kingma, Diederik P., 和 Max Welling. "自编码变分贝叶斯." arXiv预印本 arXiv:1312.6114 (2013).


(注:训练出一个能减少视觉维度数据的网络。)


21. Sohl-Dickstein, Jascha, 等. "使用非平衡热力学的深度无监督学习." 国际机器学习会议. PMLR, 2015.


22. Ho, Jonathan, Ajay Jain, 和 Pieter Abbeel. "去噪扩散概率模型." 神经信息处理系统进展 33 (2020): 6840-6851.


23. Nichol, Alexander Quinn, 和 Prafulla Dhariwal. "改进的去噪扩散概率模型." 国际机器学习会议. PMLR, 2021.


24. Dhariwal, Prafulla, 和 Alexander Quinn Nichol. "扩散模型在图像合成上胜过GANs." 神经信息处理系统会议进展. 2021.


25. Karras, Tero, 等. "阐明基于扩散的生成模型的设计空间." 神经信息处理系统进展 35 (2022): 26565-26577.


(注:21~25, Sora是一个扩散模型,给定输入的噪声块(和条件信息,如文本提示),它被训练用于预测初始的“干净”块。)


26. Peebles, William, 和 Saining Xie. "用transformers扩展扩散模型." IEEE/CVF国际计算机视觉会议论文集. 2023.


(注:Sora是一个扩散Transformer。)


Transformer跨越不同的模态,其扩展功能依然有效


27. Chen, Mark, 等. "像素的生成预训练." 国际机器学习会议. PMLR, 2020.


28. Ramesh, Aditya, 等. "零样本文本到图像生成." 国际机器学习会议. PMLR, 2021.


(注:27~28,Transformer在图像生成方面具有非凡的扩展特征。)


29. Yu, Jiahui, 等. "扩展自回归模型以生成内容丰富的文生图." arXiv预印本 arXiv:2206.10789 2.3 (2022): 5.


30. Betker, James, 等. "用更好的图说改善图像生成." 计算机科学. https://cdn.openai.com/papers/dall-e-3.pdf 2.3 (2023): 8


(注:29~30,使用了Dall.E3的字幕和标题技术,用于视频。)


31. Ramesh, Aditya, 等. "使用CLIP潜码的分层文本条件图像生成." arXiv预印本 arXiv:2204.06125 1.2 (2022): 3.


32. Meng, Chenlin, 等. "Sdedit: 使用随机微分方程的引导图像合成和编辑." arXiv预印本 arXiv:2108.01073 (2021).


(注:31~32,用Dall.E2和Dall.E3图像生成视频。)


本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:未尽研究

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
正在改变与想要改变世界的人,都在 虎嗅APP