" @# s% r( `+ b. {( Q' f
作者:Pieterluitjens
8 s6 Q/ f# K, r$ y, S 参与:一鸣、嘉明、思
# |& X6 Y, _! A w, {; C8 ^3 T
你的数据处理影响整个训练速度,如果加上英伟达 DALI 库,处理速度比原生 PyTorch 也能快上四倍。
$ m; v8 p- G, U i J0 B& o
6 Q7 Z, h' H7 I4 k- ?$ x2 \ * ]3 i$ a! d" G' b. l# g
打开凤凰新闻,查看更多高清图片
' a* p% \7 u* G; X
2 U; T: T- D4 B" i7 |( ]
% k: S) q. F3 x- q/ P0 z 深度学习的加速上,除了对训练和推理过程的加速之外,还有对数据加载和预处理阶段的加速。这一阶段也尤为关键,因为数据处理 pipeline 的处理速度也影响着整体的流程效率。
4 f6 P( C9 y5 L2 `; y' V" S 近日,有开发者介绍了如何使用 NVIDIA Data Loading Library(DALI),以及使用这个库进行数据预处理加速的方法。DALI 和 TensorFlow 自带的 DataLoader 类似,是一个专门用于加速数据预处理过程的库。
" X! |0 x& _, }1 j4 \% P, j6 n8 | R
在一篇博客中,开发者表示,该库不仅可以进行 GPU 加速,也可以在 CPU 上构建一个完整的数据预处理流程。如果在 Tesla V100 上做测试,PyTorch+DALI 的处理速度能达到 4000 images/s,比原版 PyTorch 要快近 4 倍。
9 |) p5 G8 d& p/ [ 支持多个框架,针对预处理
' d/ l5 r% P% t0 n. i 英伟达数据加载库 DALI 是一个便捷式开源库,用于图像或视频的解码及增强,从而加速深度学习应用。通过并行训练和预处理过程,减少了延迟及训练时间,并为当下流行的深度学习框架中的内置数据加载器及数据迭代器提供了一个嵌入式替代器,便于集成或重定向至不同框架。
" T9 f4 U- o# G R# c& W1 w
开发人员可以在 GPU 上运行他们的数据处理通道,从而减少训练神经网络的时间。而 DALI 实现了数据处理 pipeline 可移植,因为可以轻松地重定向至 TensorFlow,PyTorch 和 MXNet。
' q: P% b# G. j$ d5 ?
* h6 f. T5 T3 ? M5 J4 h
DALI 设计之初就是用来帮助用户突破数据预处理的瓶颈,使得模型的训练和推理能够达到最高的效率。其主要设计是用于在 GPU 上的预处理,但大多数操作也可在 CPU 上实现。
0 g( g! u) |5 [& a. T/ u 主要特征
1 y+ h6 U5 u" _& _% n 易于使用的 Python API
& v& U& m! H' W, h
在多个 GPU 之间显式地缩放
6 }; E: R! Z: M' ?$ X' \
加快图像分类(ResNet-50)和目标检测分类(SSD)工作流
7 I( M" H6 V2 u0 O$ s* Q3 C
灵活的计算图使得开发人员可创建自定义的数据处理 pipeline
u w x! H. ~6 A
支持多种格式 - LMDB、RecordIO、TFRecord、COCO、JPEG、H.264 以及 HEVC
. B% q5 h- M2 R% d5 O7 k
开发人员可添加自定义的图像或视频处理 operator
" |$ h! \4 S r& y H3 [4 c 8 x& e5 @) @; U- _* e
DALI 在 MXNet 上训练 ResNet50 的性能表现。
. N/ T% f }3 U2 J6 K0 m7 f; ^# I 使用 DALI 重构数据预处理 pipeline
9 ?& w3 ^) I4 c4 h z5 ~( \
内存占用大是 DALI 在加速数据预处理中面对的一个重要问题。随着批大小的上升,DALI 的内存占用会变得更大。这一问题现在还没有得到修复。
* [$ |0 J2 B" \* v) J
2 o! U/ d9 w- D" Z% o- f$ G- T DALI 的内存占用问题。
. f- ~/ t9 {5 `! G1 i4 T% C/ E 而和其他的数据预处理工具相比,DALI 能够最大处理的批大小相比 TorchVision 少了一半。
4 c# m8 S2 b$ p; b- R
' |4 e0 \- [( c2 m' i& R
因此,使用 DALI 加速数据预处理需要重新构建整个 pipeline。在教程中,作者分别介绍了构建 CPU pipeline 和 GPU pipeline 的方法。
0 |0 K3 I3 }0 P" V" j! n
构建 CPU pipepline
# K" t3 H& ` ?5 m" p 使用 CPU 进行数据预处理的时候,常用的做法是让 CPU 处理解码和 resize 的工作,而 CropMirrorNormalize 这样的工作放到 GPU 上。由于使用 DALI 将输出传入 GPU 中就会占用很大的内存,因此作者构建了一个完全基于 CPU 的 pipeline。
6 |; P6 ?2 w0 z! d8 k
首先,重新加载并导入 DALI。
0 B: C8 ^1 W" r% b* I- z5 K
- G/ r9 D+ _1 G z' f+ _$ A
然后构建基于 CPU 的 pipeline。
% ]& E7 k; [( X5 j! C& C/ L
3 r: ^9 z" G" b
在这里设置一下哪些操作应当由 CPU 运行。
& h3 L7 d9 G0 S! N 8 [6 f& o% D& v: [
然后开始相应的操作。如解码:
) V e. Z( i% @& e; N( I; B
. I4 `" _, P# q 以及 resize:
# [0 C. S) \; D1 R
$ z& ^- p! ~5 ^* i3 J3 M) h
CropMirrorNormalize 的操作由 GPU 进行。
9 `7 U) P. U- W* J5 g ?, } 0 F7 N. d8 ~- u; ?
当然,还需要从 CPU 到 GPU 的转移过程,这一过程使用 PyTorch 进行,作者在教程中也给出了相应的代码。
& w4 S8 j6 \, K* H9 l( G" }
构建基于 GPU 的 pipeline
2 \& L; _! C- M2 l+ t6 C/ E" u, y; e& e
当模型较大(如使用 ResNet50)的时候,基于 CPU 的 pipepline 效果较好,而在类似于 AlexNet 或 ResNet18 这样的小模型上,CPU 的处理还是跟不上 GPU 的数据处理速度。其主要原因在于,GPU pipeline 会降低近一半的批大小。
E0 A, B+ q8 q
为了解决这个问题,作者建议将验证 pipepline 从 GPU 中关掉,直到每个 epoch 的最后需要的时候再开启。
; w2 I0 C( {. q 效果评价
& P/ m; B$ C6 A: f/ A: i/ P# F 以下是作者在 ResNet18 中使用的最大批量大小:
0 G. _6 M, x* B6 c; j2 L m; J 9 q/ q" G4 Z" q3 L
因此通过合理应用这一系列修改,DALI 可以使得最大批量大小在 CPU 或 GPU 模式下提升 50%
& }$ c# a5 q- k2 g9 [' i
而在 Shufflenet V2 0.5 上,如果批大小为 512,则 DALI GPU 和 CPU 能够处理的批大小如下:
: u( G- b, p: ^3 K: _$ y 5 P0 [) R+ z5 ?0 G& f! C, y
可以看到,即使是 CPU,其处理速度也达到了每秒 1800 张图像,速度超过了 TorchVision。
2 S# h1 g( g; {3 m$ X7 F
所有的测试都在 Google Cloud V100 实例下运行:包含 12 个 vCPU(6 个物理内核),78GB 内存,以及使用 ApexFP16 进行训练。
! v) {1 ` F, M5 S1 v
因此,通过 DALI,一个 Tesla V100 GPU 就可以达到将近每秒 4000 张图像。接近英伟达有 8 个 V100 GPU 的 DGX-1 的性能,尽管使用的是小模型。
! @4 [' ^2 k2 e6 ^- e5 z1 s https://towardsdatascience.com/nvidia-dali-speeding-up-pytorch-876c80182440
4 d( y+ v x, r9 C+ h) ~+ c4 T 加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com
. O2 L: F5 l5 h( g/ m5 j2 `# E$ e/ x 投稿或寻求报道:content @jiqizhixin.com
( e: U) [ b0 O; \( ? V) `5 X 广告 & 商务合作:bd@jiqizhixin.com
8 t5 G6 a! M( O8 q; w