Press "Enter" to skip to content

Super SloMo:用神经网络脑补超级慢动作

 

By 超神经

 

内容提要:为了解决视频画面卡顿、不够顺畅等问题,视频插帧大法应运而生。英伟达提出的 Super SloMo 方法在众多方法中一骑绝尘,对于一段普通设备录制的视频,能「脑补」出高帧率慢动作视频。有了这一神器,视频制作的门槛得到进一步降低。

 

关键词:视频插帧 慢动作 CNN

 

如今,人们对于视频帧率的追求越来越高,因为高帧率视频更加顺滑、流畅,能极大地提升人们的观看体验。

 

现有相机拍摄的视频帧率,也从 25 FPS(Frames Per Second) 不断提升到 60 FPS,再到 240 FPS 甚至更高。

 

 

在绝大多数电影帧率 24 的当下,

李安的《双子杀手》

 

以 120 的帧率实现电影技术的革新

 

但是,高帧率的摄像设备,
对于内存需求非常大,而且 成本高昂,
尚不能普及
。为了在没有专业设备的情况下,能够得到高帧率的视频,视频插帧技术应运而生。

 

而英伟达提出的 AI「脑补」大法 Super SloMo,则在众多视频插帧技术中一骑绝尘,即使帧率仅仅为 30 帧的视频,也可以 Super SloMo 补成 60 帧、240 帧甚至更高。

 

传统插帧方法优劣势一览

 

为了更好地理解 Super SloMo,我们首先来了解一下现有的较为传统的视频插帧技术。

 

帧采样

 

帧采样就是用关键帧来做补偿帧,其实质就是拉长每一个关键帧的显示时间,相当于并没有插帧。除了获得文件属性更高的帧率和在同视频质量下更大的文件体积外,不会带来任何视觉观感上的提升。

 

优点:帧采样消耗资源少,速度快。

 

缺点:可能会使得视频看起来不是很流畅。

 

 

帧混合

 

帧混合,顾名思义,就是 提升前后关键帧的透明度,再将其混合成一个新的帧,
来填补空缺。

 

优点:计算所需时长短。

 

缺点:效果不佳。 由于只是简单的把原关键帧变成半透明状,运动物体轮廓在前后两帧交叠的时候,就会产生明显的模糊场景,对视频的视觉效果流畅程度提升很小。

 

 

运动补偿

 

运动补偿(Motion Estimation and Motion Compensation,简称 MEMC
),其原理是
在水平和垂直两个方向上
,对两帧之间的差异寻找出现运动的块,通过分析图像块的运动趋势,再辅以计算得到中间帧。

 

MEMC 主要被应用于电视、显示器和移动端,提升视频帧率,给观众更加流畅的观感。

 

优点:减小运动抖动,减弱画面拖尾与虚影,提升画面清晰度。

 

缺点:对于运动物体背景比较复杂的情况 ,就会出现物体边缘运动的 bug。

 

 

光流法

 

光流法是计算机视觉研究中的一个重要方向,其根据上下帧来推断像素移动的轨迹,自动生成新的空缺帧。有点类似于运动模糊计算方法。

 

优点:画面更流畅、卡顿感弱。

 

缺点: 计
算量
大, 耗时长;对光线敏感,在光线变化较大的情况下,容易出现画面紊乱的错误

 

 

Super SloMo:AI 插帧法,堪称业界经典

 

在 2018 年 计算机顶会 CVPR
上,英伟达发布的论文
《Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation》

中,提出了 Super SloMo,在业界引起广泛关注。

 

 

《超级慢动作:用于视频多个中间帧插值的的高质量估计》

 

论文地址:https://arxiv.org/pdf/1712.00080.pdf

 

Super SloMo 不同于传统方法,它利用深度神经网络来实现补帧,基本思路为: 使用大量普通视频与慢动作视频进行训练,然后让神经网络学会推理,根据正常视频生成高质量的超级慢动作视频。

 

 

Super SloMo 方法框架图

 

包括

光流计算模块(左)与特定时间流插值模块(右)

 

Super SloMo 团队提出的方法,
其 整个框架依赖于两个全卷积神经网络  U-Net。

 

首先,用一个 U-Net 来计算
相邻输入图像之间的双向光流。然后,在每个时间步长上对这些光流进行线性拟合,以近似中间帧的双向光流。

 

为了解决运动边界出现伪影的问题,使用另一个 U-Net 来对近似的光流进行改善,并且预测柔性可见性映射关系。最后,将输入的两张图像进行扭曲和线性融合,从而形成中间帧。

 

此外,Super SloMo 的光流计算网络和插值网络的参数,都不依赖于被插值帧的特定时间步长(时间步长被做为网络的输入)。因此,它可以并行地在两帧之间的任意时间步长上插帧,从而突破了很多单帧插值方法的局限性。

 

 

原始 SloMo 视频(上)

 

Super SloMo 补帧后的超级慢动作视频(下)

 

作者表示,使用他们未经优化的 PyTorch 代码,在单个 NVIDIA GTX 1080Ti 和 Tesla V100 GPU 上,生成 7 个分辨率为 1280*720 的中间帧,分别只需要 0.97 秒和 0.79 秒。

 

为了训练网络, 作者从 YouTube 和手持摄像机上收集了多个 240 帧的视频。总计收集了 1100 个视频段,由 30 万张 1080×720 分辨率的独立的视频帧组成。
这些视频从室内到室外,从静态相机到动态相机,从日常活动到专业运动,包含了各类场景。

 

之后在其它数据集上对模型进行了验证,结果表明,该研究在这些数据集上比现有的方法性能上有了显着的提高。

 

戳下方官方演示视频,观看更多效果展示:

 

跟着教程,一键实现 Super SloMo

 

虽然英伟达这一论文的作者尚未公开数据集和代码,不过,高手在民间,GitHub 上一位名为为 avinashpaliwal 的用户,已经开源了自己对 Super SloMo 的 PyTorch 实现,其结果与论文描述相差无几。

 

该项目具体信息如下:

 

 

 

Super SloMo

 

超级慢动作镜头补帧

 

运行环境:
PyTorch 0.4.1

 

语言版本:
Python 3.6

 

训练可视化:
TensorboardX

 

训练数据集:
Adobe 240 fps

 

项目地址:

 

https://github.com/avinashpaliwal/Super-SloMo

 

由于模型训练和测试是在 PyTorch 0.4.1 和 CUDA 9.2  上完成的,所以安装这两个软件必不可少,另外你还需要有一张 NVIDIA 的显卡。

 

此外,模型不能直接使用视频训练,因此还需要安装 ffmpeg 从视频中提取帧。这些准备工作一切就绪后,方可下载 adobe 240fps 数据集进行训练。

 

不过,你也可以不需要准备这些,做一个 安安静静
的「伸手党」,一键实现 Super SloMo。

 

我们在国内的机器学习算力容器服务平台(https://openbayes.com)找到了相应的教程。从数据集到代码再到算力,一应俱全,即使是小白,也可以轻松上手。

 


教程链接:

 


https://openbayes.com/console/openbayes/containers/xQIPlDQ0GyD/overview

 

 

教程使用指南

 

首先注册并登录 https://openbayes.com/,在「公共资源」菜单下的
「公共教程」

中,选择本教程—— 「Super-SloMo超级慢动作镜头的PyTorch实现」。

 

教程中样例展示文件是 Super-SloMo.ipynb,运行这个文件,会安装环境,并展示最终补帧而来的超级慢动作效果。

 

大家也可以使用自己的视频素材,将下方生成代码中的 lightning-dick-clip.mp4
改为你的视频文件名。

 

属性「scale」 用于控制生成视频的倍速,比如:设为 4,即 4 倍速慢放。

 

生成代码:

 

!python3 'Super-SloMo/eval.py' \
    'lightning-dick-clip.mp4' \
    --checkpoint='/openbayes/input/input0/SuperSloMo.ckpt' \
    --output='output-tmp.mp4' \
    --scale=4
print('Done')

 

转换视频格式代码:

 

!ffmpeg -i output-tmp.mp4 -vcodec libx264 -acodec aac output.mp4

 

该教程中,使用了网络上的某段视频,进行 Super SloMo 插帧,得到如下结果:

 

 

4 倍速慢放,看清武术动作的每一步

 

目前,该平台还能薅羊毛,每周都赠送 vGPU 的使用时长,人人都可轻松完成,赶快动手试试吧!

 

 

亲自动手,制作神奇的超级慢动作

 


参考资料:

 


论文:https://arxiv.org/pdf/1712.00080.pdf

 


项目主页:http://jianghz.me/projects/superslomo/

 


https://zhuanlan.zhihu.com/p/86426432

 

—— 完 ——

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注