上个月,OpenAI搞了个大动作,推出了个新玩意儿,名叫Sora的视频生成模型。这不,才玩了没几天,一群拍电影的大佬就被拉来试水。成果呢?七个梦幻般的短片一出炉,立马让人看到了,生成视频的未来,简直要飞速赶来了!
要说起这玩意儿,其实早在2022年底,一些大公司,比如Meta、谷歌,还有那个啥Runway的小创业公司,都玩过类似的把戏。只不过那时候的视频,质量嘛,说好听点是艺术感十足,说直白点就是粗糙得跟我的初中美术作业似的,而且还短得可怜。
时间一晃眼到了18个月后,Sora玩出来的高清逼真效果,美得让人窒息,搞得一些人激动得预言好莱坞的末日都要来了。Runway家的新模型也不甘落后,能做出能跟大片儿动画工作室较劲的短片来。而且,那两个做图像模型出名的公司,Midjourney和Stability AI,现在也开始往视频这块儿扩展了。
现在的问题是,一大波公司正摩拳擦掌,准备在这个领域大展拳脚。大家都还在摸索怎么利用这股风潮来赚钱呢。Vyond的CEO Gary Lipkowitz就说了,玩这玩意儿是真的酷,但怎么在工作上用起来呢?
不管怎样,这技术改变游戏的方式肯定不少,各行各业都得重新洗牌。当然,也担心会被滥用,比如生成假视频什么的,网上已经够乱的了,这下更加雪上加霜。我们都看到问题来了,就是没人知道怎么解决。
好了,废话不多说,直接上干货。我们这就来聊聊,搞这个视频生成技术,未来会有啥新花样。
首先,Sora这货只是个开头,其他公司也在紧追不舍。接下来几个月,市场上将挤满了Sora的竞争对手。
比如,这个月从暗处走出来的英国创业公司Haiper,一开始是想做能让2D图片转变成3D场景的技术,后来一拍脑袋,觉得做视频更有前途。CEO Yishu Miao说,对视频的需求超级大。
像Sora这样的技术,用的是某种扩散模型来搞定视觉效果,再加上一个变压器来保持帧之间的连贯性。但是,让这技术保持正轨,需要海量的数据和成群的电脑。
Irreverent Labs就选择了另一条路。他们不跟风,因为那样的话就变成了硬件战争,最后赢家也只有一个,穿皮夹克的那位大佬(没错,说的就是Nvidia的CEO Jensen Huang)。
他们的技术结合了扩散模型和一种预测下一帧内容的模型,但这种方法还能省点成本,减少出错率。不过,就算这样,做出来的视频还是会有些小瑕疵。
总之,现在的技术还处于初级阶段,就像几年前的大型语言模型GPT-2一样,当时大家都惊叹不已,但真正成为改变游戏规则的东西,还得过几年。
至于生成视频将如何被利用,不用说,视频是互联网的灵魂。从YouTube到TikTok,再到新闻和广告,合成视频马上就要遍布每个角落了。
营销行业特别是,已经开始大力投入。Adobe最近的一项调查显示,三分之二的营销专业人士在工作中尝试过生成AI,超过一半的人说他们已经用它来制作图像了。
《Somme Requiem》这部短片就是一个例子,它讲述的是第一次世界大战圣诞休战期间的故事,通过拼接、调色和配音,展示了混合工作流程的未来。
但是,不要太早下结论,认为生成视频就能取代好莱坞。技术虽好,但还不够成熟,控制输出的能力还有待提高。就现在而言,它更适合制作那些只需几秒的场景设置镜头,而且成本还低。
虚假信息的问题也不能忽视,深度伪造技术的出现,只会让情况变得更糟。我们正在逐渐失去对媒体、机构乃至彼此的信任,如果再加上假视频,我们共享的现实基础可能就会完全崩溃。
总之,虽然前景一片光明,但挑战和风险同样存在,我们还在为掌握这项技术而努力。