导读 继Dall-E和ChatGPT之后,大约一个月前,OpenAI凭借其新的SoraAI再次震惊了世界。Sora是一款文本到视频生成人工智能应用程序,可以通过简单...

继Dall-E和ChatGPT之后,大约一个月前,OpenAI凭借其新的SoraAI再次震惊了世界。Sora是一款文本到视频生成人工智能应用程序,可以通过简单的文本提示制作出令人难以置信的视频,就像Dall-E通过几行文本当场生成图像一样。

然而,尽管Sora演示可能令人印象深刻,但它并不是公开发布的。OpenAI仅展示了该产品,并表示它将提供给RedTeamingNetwork,该网络是“一个由值得信赖且经验丰富的专家组成的社区,可以帮助为(公司)的风险评估和缓解工作提供信息。”

该公开版本即将发布,OpenAI的MiraMurati在接受采访时表示,它将在今年的某个时候发布。虽然没有提供实际的发布日期,但OpenAI高管似乎确信Sora将于2024年公开发布。

穆拉蒂借助Sora生成的新剪辑向《华尔街日报》的乔安娜·斯特恩和全世界解释了Sora,这些剪辑可在本文末尾的视频中观看。

我们了解到Sora剪辑需要几分钟才能生成。演示剪辑是高清分辨率(720p)的20秒视频。生成这些剪辑的处理成本超过了Dall-E图像或ChatGPT响应。但当Sora推出时,OpenAI的目标是让它们变得价格实惠。不过Mirati没有透露Sora的任何定价细节。或者ChatGPTPlus用户是否可以使用Sora。

这位OpenAI高管还解释了该公司如何培训Sora。人工智能分析了来自公共来源的大量视频,并学会了识别各种事物。人工智能可以识别物体和动作。在分析提示时,它会根据该知识绘制场景草图以生成结果。以下是OpenAI几周前分享的展示Sora功能的视频:

Murati仅将Shutterstock列为训练人工智能的视频的潜在来源。但所有公开可用的东西都可以用来制作《Sora》。这可能包括来自Facebook和YouTube的数据,但该高管不愿证实这些来源。

正如您在下面的剪辑中看到的那样,Sora的视频并不完美。人工智能可能会误解提示,并且可能会造成连续性问题。但Sora会变得更好,可能会变得更好,其中一些视频看起来几乎和有人在野外录制的真实视频一样好。

为此,OpenAI希望确保视频被相应地标记为AI创作,它们将有OpenAI水印和元数据信息来指出这一点。我想知道这是否足以防止虐待。就像有人故意制作旨在误导人群的剪辑一样。

OpenAI在Sora中内置的一项保护措施模仿了Dall-E。您无法在Dall-E中生成公众人物的图像。Sora剪辑也会发生同样的情况。当涉及更敏感的提示时,OpenAI可能会采取额外的保护措施。或者在视频中使用裸体。

Sora会在选举前公开推出吗?这是我们必须拭目以待的事情。主要是因为今年世界各地都有丰富的选举。如果我们谈论11月的美国总统选举,OpenAI没有时间表。

这位高管确实表示,错误信息和有害偏见已在其关注范围内。她还明确表示,当涉及到对全球选举和其他问题的直接影响时,OpenAI不会发布任何他们没有信心的内容。

至于对好莱坞的明显威胁,Murati表示OpenAI希望Sora成为“扩展创造力”的工具。它希望创作者参与这一过程,并告知OpenAI如何开发和部署Sora。