画面相当震撼。 那里有一个巨大的U型LED屏幕。 屏幕前的空地上停着一辆面包车。 摄像机对准了汽车及其后面的 LED 屏幕。 当导演喊出“3、2、1,行动”时,LED屏幕立即开始播放隧道前进的画面。 演员跳上车顶,配合画面动作,说出“别动”、“趴下,躲开路标”等好戏……
在旁边的监视器上,我们可以看到摄像机实时拍摄的画面:LED屏幕的隧道背景、货车和演员完全融为一体,几乎看不到任何瑕疵,仿佛真的是在一个场景中拍摄的。隧道。 相同。
虚拟演播室是一种利用游戏引擎技术实时渲染输出超高质量特效场景,助力影视制作的技术。 近两年来,这项技术发展非常迅速,也非常普及。 在《曼达洛人》、《新蝙蝠侠》、《星际迷航:奇异新世界》等作品中都曾使用过,并且已经成为一种比较常见且不那么罕见的技术。
然而,当我亲眼所见时,还是相当震惊的。 在腾讯互娱CDD虚拟演播室现场,技术团队向我们详细介绍了这一技术方案。
虚拟工作室如何运作?
这个虚拟演播室最重要的是一块U型竖屏,尺寸为40m×6m,分辨率为17280×2592,7000万像素,60FPS帧率,100%DCI-P3电影行业标准色彩色域。 上方还有一个可升降的天幕,面积125平方米。
普通人乍一看可能对这些参数没有太多了解。 我们举一些我们比较熟悉的例子来对比一下:市面上的电视或者显示器常常以“4K分辨率”作为卖点,象征着高清画质,但虚拟演播室LED屏的分辨率相当于17K,并且差异一目了然。
综上所述,虚拟演播室的LED屏具有一流的画质呈现能力。
有了屏幕,就需要在上面放一些东西——在影视行业,用于在LED屏幕上创建特效场景或背景的内容被称为“资产”。 据技术团队介绍,因为这些场景都存储在资产库中,可以重复使用。
这些资产是通过游戏引擎技术创建的。
事实上,“虚拟图像作为背景”在影视行业的运用并不新鲜。 早在《奥特曼》拍摄时代,人们就已经开始使用图片或投影作为背景。 但那种背景要么是静态的,要么即使是动态的,也是平面的,视角固定,非常不灵活。 拍出来的时候会显得“你的背景太假了”,所以后期基本都是“绿屏拍摄”。 +“后期特效”技术已被取代。
然而,今天的虚拟演播室是一种更先进的技术。 虽然想法是“虚拟屏幕作为背景”,但背景效果可以非常逼真,一点也不假。
首先,虚拟工作室的资产并不是2D平面,而是实际上是3D场景模型,就像游戏中的场景一样。
在这个3D场景中,我们可以根据拍摄需要进行很多设置,比如光线从哪里来,是白天还是晚上,是下雨还是晴天,颜色是深还是亮……
此外,虚拟演播室的摄像机上还将安装定位跟踪器。 当现场摄像机移动时,定位系统驱动游戏引擎中的虚拟摄像机移动,让LED屏上背景环境的3D资源实时渲染,最终产生逼真的拍摄画面。自然的视角变化——这项技术被称为“视锥跟踪”技术,也是虚拟制作中最先进的环节之一。
因此,虽然听起来像是“虚拟屏幕作为背景”的事情,但由于效果足够逼真,这样拍摄出来的画面已经接近“绿屏拍摄+后期特效”的水平了,相当于把原著拆成了“绿幕拍摄”和“后期特效”两个阶段合并在一起了。
这种拍摄技术不仅提高了效率、缩短了整个影视制作周期,而且还大大降低了拍摄的资金成本。 以隧道里的赛车场景为例。 如果要外景拍摄,需要向相关部门报备,走审批流程,堵路……时间和金钱方面的成本是非常可观的,更何况如果是发现拍得不好,需要拍。 重新拍摄或添加素材是多么麻烦。 如果您在虚拟工作室中,一切都会变得更加容易。
“一般来说,普通的城市街景或者比较常见的自然风光可能更适合现场拍摄,但如果是虚构的科幻场景,或者脱离日常生活的场景,比如雪山、战场、沙漠和太空 在戈壁沙漠这样的地方,虚拟工作室非常有优势。” 一位剧组导演在腾讯互娱虚拟演播室现场说道。
腾讯游戏虚拟演播室测试片《凤娇与呸的奇幻历险记》拍摄场景
对于演员来说,这显然是一项更加友好的技术。 他们不再需要在绿屏前想象周围的环境,LED屏就可以直接显示出来,而且沉浸感很强。 参观腾讯互娱虚拟演播室时,他们正在拍摄趴在车顶躲避路牌的场景:路牌一出现在大屏幕上,演员就躺了下来。 我什至感觉他好像在玩体感游戏。
之所以能够实现以上这一切,得益于游戏引擎技术能力的进步。
游戏引擎的“实时渲染”
在游戏界有一句话:判断一款游戏的画质,看CG动画是没有用的,还得看实际演示。 其实是因为CG动画都是“离线渲染”制作的,而实机演示则是“实时渲染”,是最终玩家玩游戏时看到的。
“渲染”是计算机计算设定的画面信息并将其显示在显示屏上的过程。 理论上,输出图像的质量越高,计算工作量越大,渲染时间越长。
离线渲染需要提前设置建模、光影、纹理等参数。 设置过程中看不到最终的画面效果。 设置完成后,将使用电脑渲染输出最终的画面。 这种方式经常用于影视制作,包括CG动画,因为不需要考虑渲染需要多长时间。 为了达到更精致的画质,每一帧甚至需要花费数小时来渲染。
实时渲染是一种“同时设置和输出屏幕”的方法。 这就是游戏所用的,因为玩家会不断地输入各种操作,而操作的结果需要实时反馈到屏幕上:比如按下遥感游戏图片,角色就立即向前移动。 因此,渲染一直在进行,这对计算机的计算能力提出了更高的要求。 但考虑到一般家用电脑和游戏机的配置限制,为了保证图形流畅流畅,必须牺牲一些图像质量。
不过,随着计算机和游戏引擎技术的进步,实时渲染在“图像质量”方面的劣势已经逐渐被消除——现在实时渲染输出的图像可以达到“影视级”的标准,而这一进展是虚拟演播室技术建立的关键。
如今,顶级3A大作的游戏画面甚至与真实场景难以区分。
以腾讯互娱的虚拟演播室为例。 它与Epic顶级虚幻引擎(Unreal Engine)合作。 其资产可以通过虚幻商城购买和组合,也可以定制和创建。 这些内容可以纳入资产库游戏引擎技术,并在同一类别的作品拍摄过程中被取出、调整、重新组装、反复使用。 根据大小和复杂程度的不同,文件大小通常为几G甚至十几G。
就像游戏一样,为了保证实时渲染过程流畅、不掉帧、不卡顿,资产需要反复优化和打磨。 运行这些资产的硬件不仅对LED屏的精度和色彩准确度有极高的要求,而且对计算机的GPU也有很高的要求。 腾讯互娱虚拟演播室拥有十台电脑,每台电脑均配备双A6000显卡。
得益于“实时渲染”的优势,资产内的很多内容都可以实时调整,比如物体的位置、物体的大小、光影效果等。即使导演突然拍摄当天对场景有了新的想法,他可以快速调整场景。 让它尽快发生。
“虚拟演播室技术最大的好处就是节省时间游戏引擎技术,想立刻换场景就可以,拍完后的效果基本上就是成品片了,所有的后期制作时间都省了。” 剧组导演告诉我们,“而对于影视行业来说,节省时间就意味着节省资金、降低成本,这一点非常重要。”
使用虚拟拍摄技术的电影案例在中国仍处于起步阶段
虚拟演播室技术在海外已经比较普遍。 国内近一两年也迅速跟进。 北京、上海、青岛等地已建成多个虚拟演播室,并越来越普遍。 影视团队使用。 然而,这项技术在中国仍处于起步阶段。
在硬件技术方面,比如LED屏的显示效果、计算机运算能力等,国内的虚拟演播室已经不再比国外逊色。 就连一些国外影城的大银幕也是“Made in China”。
但在内容上,即资产的制作上UI界面,国内水平与世界一流水平还有差距。 这也与游戏的发展有关。 如今,顶级的游戏引擎都是国外公司开发的,最优质的3A游戏也都是国外厂商生产的。 他们积累了丰富的经验和技术实力,但国内游戏公司在3A领域的探索才刚刚开始。
《底特律:成为人类》,一款像电影一样的游戏
如今,游戏引擎技术的能力已经渗透到许多其他领域,不仅是影视,还包括交通、工业等。游戏引擎技术的突破往往会直接改变或颠覆某些其他行业。
因此,甚至有观点认为,游戏引擎将成为下一代国际技术竞争中最重要的底层软件之一。 也就是说,游戏引擎技术运用得如何,将成为判断技术实力高低的标准之一。
虽然我们还处于起步和追赶阶段,但近年来国内陆续推出了一系列画质令人惊叹的3A品质新作,可以看到进步的速度非常快。
“我们对未来绝对充满信心,未来无论是电影、电视还是游戏,我们都能够制作出不逊色于国际一流品质的优秀作品。” 电影和游戏项目组的许多成员也是经验丰富的游戏玩家。 ,他们一致表达了同样的观点。
《IGN中国》由腾讯集团运营,但《IGN中国》编辑团队独立运作。 涉及任何腾讯集团公司、产品或服务的观点、意见、评论和其他重要论点不受腾讯集团影响。