G; n# ^+ B9 i. y9 d5 P
3 S! z! n, o3 [, W4 U# j K
, m" A3 s. Y: f: T
7 F$ A: M6 A8 T
, P/ w+ c+ c i% Y; X 新智元报道 4 G7 b; |. B" z6 T# J1 n
5 [% }/ } ]# U' S* Y* F4 X
; {: @; t0 X0 F" t' Q
来源:Google AI # d o& Y6 A, b( t. s
1 v0 D5 s' N- i. z( ]0 d3 p
9 `4 e$ q# ~$ X 编辑:大明 % T. D n. b5 g3 K, m' e* ^% G) l
0 d4 v# S; v& O1 P# q
6 k: [( A( ~" S H3 \5 M 【新智元导读】谷歌近日推出了在计算机视觉领域模拟重建人类视觉的新模型,与以往方法不同的是,新模型利用AI,通过普通Youtube视频预测深度图,可以在场景内的摄像头和人同时运动的复杂情况下生成自然视频。 , H9 Z! b* E& F; p
* j4 l+ r) Y. ]/ k1 P
) i) ^' g, t% d1 r; @9 g
人类的视觉系统具有非凡的能力,可以从2D投影中理解3D世界。即使在包含多个移动物体的复杂环境中,人也能够对物体的几何形状和深度的排序进行可行的解释。长期以来,计算机视觉领域都在研究如何通过2D图像数据计算重建场景的几何特征,来实现和人类类似的能力,但在许多情况下,仍然难以实现具备充分鲁棒性的重建。
2 ^& H0 B, a3 Z
6 t7 `! ?5 N# j) m / n! P9 K4 Y5 X$ P2 O! ?
当摄像头和场景中的物体都在自由移动时,是实现重建的最困难的情况。这种情况混淆了基于三角测量的传统3D重建算法,该算法假设可以同时从至少两个不同的观察点观察到相同的对象。满足这个假设需要一个多摄像头阵列,或者单摄像头移动,但场景目标本身是静止状态。因此,现有的大多数方法要么需要过滤掉移动的目标(将移动目标的深度固定为“零”),要么直接忽略移动目标(会导致深度值发生错误)。 % q# ^/ g3 T$ U0 A7 G: M3 [
" v3 U- r, |& w2 A # p% \+ z4 u3 }" Q" \0 y7 j" \
W4 e3 c# r# X
9 ?9 V0 f; [; s0 H$ I
% ~, l0 F/ _+ G 左图:传统的立体设置假设至少有两个观察点在同时捕捉场景。右图:我们考虑摄像头和拍摄对象都在移动的情况。
. i% q+ l$ q0 T. f! G4 r
0 U* {: I4 Y L# |! g# ? 3 e# B6 g6 U- M2 l! T, q0 ^& y" ]
我们通过基于深度学习的方法来解决这个基本问题,该方法可以从普通视频中生成深度图,场景中的摄像头和主体目标都可以自由移动。模型从数据中学习人体姿势和形状的先验知识,无需直接3D三角测量。尽管最近使用机器学习进行深度预测逐渐兴起,但这项工作是第一个针对同时在摄像头和目标都在运动的状态下的基于学习的方法。 0 Z- j8 H* u1 X" v
* i- j4 O( q: ^% b - f8 X; J) ]" D1 N, L: n+ V. e
本研究中的观察目标是人类,人类是增强现实和3D视频效果的有趣目标。 8 l9 s' d, L$ D! m* c4 [
- f( i! J$ C( X4 j1 v$ X
! t" p( M* T8 `6 o. ^' l( i! b
" _- R, {2 r$ N! ^ Y
$ J1 A& N, I! ] # l6 f! b% W& E p( Y
我们的模型可以预测深度图(右图,离摄像头越近,图中越亮),场景中的人和摄像头都在自由移动。 2 w3 E9 n& w% }3 P2 h+ q( Z5 @
7 y; l4 W( ~% ]* p: X+ i' M: E" d
$ E9 D) B; f& u0 o! p/ n7 `% M g
训练数据 , O2 v$ I" x4 [ E2 R) e" a
# |) _0 E! P0 Y. Y @6 ~
9 p& D; Y8 E8 q& G 我们以监督学习的方式训练深度预测模型,该模型需要通过移动的摄像头捕获的自然场景视频以及精确的深度图。关键问题是从何处获取此类数据。综合生成数据需要对各种场景和自然人类行为进行逼真的建模和渲染,这是很困难的任务。 " L, J+ G2 v! T& m7 G
I, o" p! h- h3 s* `6 g6 s! q2 Y
6 }* z, W' i ~( R3 E
此外,针对这样的数据训练的模型可能难以推广到真实场景中。另一种方法可能是用RGBD传感器(如微软的Kinect)记录真实场景,但深度传感器通常仅限于室内环境,而且要面临3D重建上的一系列问题。
1 J* p) P' \9 K6 c
; _# j, E5 N5 \' F2 F% h7 e3 `: `' S5 v 1 s& S! F; v' S+ _8 @
我们利用现有的数据来进行监督学习:即YouTube视频,视频中的人们通过自己定格在各种自然姿势,模仿人体模特效果,而手持摄像机则在现场记录。
" z8 v9 B3 f# X0 T1 \
( ~. ?9 f4 d/ P. {, |7 c
1 `" R2 ^5 a* z9 J3 ?1 D+ T$ n+ j 因为整个场景是静止的(只有摄像机在移动),所以基于三角测量的方法是行得通的,可以获得包括其中人物在内的整个场景的精确深度图。我们收集了大约2000个这样的视频,涵盖了各种逼真的场景,场景中的人按照不同的分组配置自然分布。 ) K0 j) T- s2 m
5 G2 b& ?+ {! ^, _3 {8 V ) s$ t# M: A z+ e; q+ A% J( h9 _
# C( ~* {2 N$ O) W . I: L% {, G0 l/ }0 w- k: F
# h$ b' Z! O# D& Z4 Y% c( P a
7 k; N, ?+ y% ]
% C& \- V2 S" k( b+ H+ R, T3 F4 b9 J9 M
0 f0 Q T7 r5 a4 O a+ o* R 人们在摄像头在场景中移动时模仿人体模特,我们将其作为训练数据。我们使用传统的MVS算法来估计深度,并在深度预测模型的训练中将其用于监督。 3 X" u! l% A# C3 ~, R) w
# W/ ^9 Y2 ?/ |) T# V8 w( H i& L ) D% v$ K5 ^# z" P& C
推断移动中的人的场景深度 & O& j* ~, k. l; V! o
2 a( _. ~: B6 o
+ O0 Q0 j3 |4 i7 z# H' i3 ^; x
Mannequin挑战视频对移动中的摄像机和“定格”的人进行深度监控,但我们的目标是利用移动的摄像头和移动的人来处理视频。我们需要构建网络输入来弥补这一差距。
/ J) }* f; P& [* b; B. M0 @ 5 r: U4 `# R4 q* p) K4 z- \
, Y) t# V" I& a; @
一种可能的方法是为视频的每一帧都进行深度图推断(也就是对模型的输入相当于单帧图像)。虽然这种模型改进了用于深度预测的最先进的单帧方法,但是我们可以通过来自多帧的信息组合来进一步改善结果。比如运动视差,即两个不同视点之间的静态物体的明显的相对运动,就对深度推断提供了有力线索。为了充分利用这些信息,我们计算了视频中每个输入帧和另一帧之间的2D光流,用它表示两帧之间的像素位移。 , n2 B# Z$ u6 @- ^3 u& m
2 V. m; e2 ^" W Q , g( A8 l5 D: P y/ d
这些光流场取决于场景的深度和摄像头的相对位置。但是,由于摄像头位置是已知的,可以从流场中去除二者之间的依赖关系,由此生成初始深度图。此初始深度仅对静态场景区域有效。为了在测试时处理运动中的人,可以利用人工分割网络来盖住初始深度图中的人类区域。这样,我们网络的完整输入包括:RGB图像、盖住人类的区域,以及基于视差的遮盖后的深度图。
% _/ G* I* z. g- q% e
2 k9 I; {- ]# O7 Z ; {1 _8 l4 m% _; T4 z: \2 X2 X) ?
6 l4 w' e" |1 V $ _+ t% [9 L0 J0 y; E9 q7 w
9 ?8 N |: T" E3 T
深度预测网络:模型的输入包括RGB图像(第t帧),人类区域的遮盖和非人类区域的初始深度,根据输入帧与另一个之间的运动视差(光流)计算视频中的帧。模型输出第t帧的完整深度图。由MVS算法计算出的深度图负责对训练过程的监督。
9 {, d5 V; [0 x" N/ Y, W
' K* {, n/ D2 ?8 X 6 r- b8 p& N) p
该网络的作用是“修复”人与场景的深度值,并在其他地方细化深度值。因为人类的外形和大小特征几乎一致,网络可以通过观察多个训练样例,在模型内部学习这些先验知识。经过训练后,模型就可以处理任意摄像头和人体同时运动的视频。
$ [2 {' \" _7 u) }6 H
9 Z* H/ Q* L% h% H2 | ]9 @/ w3 {! g2 w. z
来看一段介绍视频:
! {9 h; V# ?* H/ K. ?/ t+ [
6 b+ \* ~" |( W! c/ o+ |
$ R, p. @7 I. E
7 ?6 ~7 ]5 {8 e
" Q, e6 C' I/ l4 }6 d 03:30 / @' `/ S8 O1 I& U0 g& ?
! X- u' |0 s6 V# o
% O O' X: q! n
2 y9 S* e+ _ t , _% E" g2 x% n' `2 W& |) v
以下是基于视频的深度预测模型结果的一些示例,并与最近基于最新学习的方法做了比较。 ; o" F- ~+ V$ O* e6 A! o. W
+ k$ @, V0 t- y: A3 W ( g2 ?& V% f d! p
3 _2 q h, A2 s6 n. b* T. v , A" L9 c- h% E! M) \- p
1 Y- q1 o0 P/ S$ n4 {
上图:基于学习的单眼深度预测方法。 下图:基于学习的立体方法(DeMoN)和我们的估计深度图的结果。
* z. r3 f5 |. ? 2 M9 L: O- M3 L+ H- Y' ~4 ` G
r1 n5 \$ L/ g \1 z& ]' O l
使用深度图处理3D视频效果 7 [# k1 q. O# U
/ G2 m5 a0 l) w( p. n
. g$ P4 H. {' w. R
& } d& k/ J7 M$ U# {9 k4 g3 x$ K
- |4 ~0 ^' h" V' y4 w : S: g/ d3 Z8 W
我们预测的深度图可用于产生一系列3D感知视频效
4 j9 @" ?4 H2 I Q3 j; k1 p & G# f: h* |4 H* X
4 ]) r6 } A( }3 i. @8 [' t 1 M% P" K- A" U f* E. `( c
' E. B$ j; r: ?8 S, S 5 F( V7 t. J& w
使用估计深度图产生的散景效果
9 C# U8 G& E. W: J7 d
: I: X O+ ]3 ^) E7 P7 I
& n5 P. z* [: Z! l& G* F1 e9 w 我们的深度图也可用于其他方面的应用,包括利用单眼视频生成立体视频,将合成CG对象插入场景,还可以在视频的其他帧中显示内容的情况下进行场景区域的填充。
D1 ?* V3 e7 A3 n0 }; t 9 J6 a0 t1 n- |$ |9 |
1 J( ]3 l8 e: @0 o4 M 参考链接:
7 h: `. H+ t' g0 p9 @2 p$ C) }4 G ) w- L/ C+ \8 S8 [. v! Z9 G
' d" `/ f* U R$ h8 e
https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html 8 A9 N& R' L/ y6 n+ a4 A
+ b& o* ~( R% V4 M+ _6 q
1 Z$ A+ J9 X3 `0 I 举报/反馈
8 m. r+ Z- K+ H# O# _! R, C' ]
6 t$ e+ }0 B' T- M& \. B- q9 P3 Z' _! _
9 L8 R* o; e0 L+ ^
1 U0 ]. s- H+ [' A
( y3 `. a# h, T. x! B" U, O- c
|