OpenAI首个视频生成模型Sora发布,一夜之间刷屏媒体人朋友圈。
据OpenAI官网,Sora模型完美继承DALL·E3的画质和遵循指令能力,能生成长达1分钟的高清视频。
Sora能做什么?牛在什么地方?会带来什么挑战?新京报传媒研究对此进行关注报道。
以下是报道全文。
Sora一夜刷屏,这只是开始!
Sora一夜之间刷屏。
作为OpenAI发布的首个AI文(图)生视频模型,Sora带给人们的感受是炸裂级的:根据输入的文字提示,能生成效果逼真的60秒视频,而且是可以一镜到底那种。
这意味着,继文本、图像之后,OpenAI将其先进的AI技术拓展到了视频领域。
虽然Sora模型尚未面向公众开放,但是已经有人感叹:视频生产颠覆性革命来了……
也有人预测:一大批视频从业人员要失业了……
然而,事情就这么简单吗?
1
Sora能做什么?
OpenAI在官网陆续公布了几十段长短不一的视频,均根据文字提示生成。
其中第一段视频的文字提示为:
一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上。她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包。她戴着太阳镜,涂着红色口红。她走路自信又随意。街道潮湿且反光,在彩色灯光的照射下形成镜面效果。许多行人走来走去。
Sora根据提示生成的一分钟视频如下:
这一分钟视频在网上广为流传,可以视为Sora的代表作,其展示的信息量极大,从主要人物到背景人物,从远处的街景以及地面,看起来十分逼真,镜头切换也非常流畅自然。
从这张全景画面截图,可以看到和主人公同时走动的路人,湿漉漉的地面,眼花缭乱的霓虹灯和招牌。
再看后面几个特写镜头:女主脸上斑点、脖纹清晰可见,显得非常真实,还有墨镜里的反射的街景,这些细节都没放过。
官网还展示了一条电影预告片,文字提示为:
电影预告片,讲述了 30 岁的太空人戴着红色羊毛针织摩托车头盔的冒险经历,蓝天,盐沙漠,电影风格,用 35 毫米胶片拍摄,色彩鲜艳。