& L& v; R$ e5 \9 _
前言
2 @3 [- Q0 X: U/ `; O; a! j$ g 前段时间忙工作的事情,所以没有给大家及时更文,近期小瑞根据各版块的知识重新划分了一下结构,新加的版块有“专题强化”和“可视原理”,专题强化这块日后会经常写一些单一性知识的文章,和其他版块的内容相关性不大但是也是必须要知道的一些内容。可视原理这块小瑞想把各个算法用视频或者其他方式来展现其实现原理。让大家更容易理解算法的本质。好了,先说这么多,今天的内容是小瑞在工作中遇到的一些问题,周末抽空给大家整理总结一下。今天的主要知识就是在 Tensorflow 中的数据处理及读取数据的方式.
u6 |( d& X) m$ E 1. 图像处理
7 L% s. x7 k9 B. H; b) e 常见的图像处理有图像去燥、图像超分辨、图像增强等等。要对图像进行处理,首先要构建所需要的数据库,处理的数据的方式也是多种多样,常见的有:
/ Y2 {0 n. a1 d$ y
7 ^: Q+ J e- l
图像颜色域的变化(例如RGB转Gray)
( s# v& Q9 @, V# g 数据增强 (Data augmentation)将图像翻转,缩放,裁剪,旋转等
' f' |/ f6 v. d8 b& b* R 图像块(Image patch) 就是从整张图像中, 扣下小块的小图像,这么做主要是因为可以增加训练数据的量, 另外小块的图像训练起来速度更快, image patch的合理性是基于卷积神经网络的感受野(Receptive field)通常不会太大.
+ l% ^, p9 I) j1 k) U! {0 Y0 q
做完这些,然后就需要为深度网络喂数据,还需要写Batch Generator, 就是用来生成一个batch的东西.
. R! m) H4 I& W9 E( C" I* p1 h* @) y 训练方案
& U, I2 n" \* Z* ] 构建数据库的部分是独立, 也就是说我们对找到的图像做预处理, 将预处理的结果保存起来, 这就算构建好训练的数据库了, 训练时从数据库里直接拿数据进行训练
" _ w! v3 o, A0 w. r 训练时实时地预处理一个batch的图像, 将处理的结果作为训练的输入
8 E: D: N5 U( }2 m2 b$ b 第一种方法将训练集的构建和网络的训练分开,并且将预处理结果存在电脑中,这样做训练的代码会比较简单,且直接读入处理好的数据能让训练速度更快,当然,不足的地方就是不够灵活,如果预处理的方式改变了(例如, 原本是RGB转HSV, 现在我要RGB转Gray), 那么需要重新构建一个数据库,造成硬盘空间的浪费. 第二种方法虽然训练速度不如第一种,但是足够灵活, 一般来讲主要关注第二种方法. 在TensorFlow中,图像处理主要由tf.image模块支持, batch generator主要用tf.data.Dataset实现,下面来看下整个流程的具体实现. 事先准备了一个文件夹, 存放了19张图片, 作为我们本章代码的示例图片
2 T. l5 c! m V3 s2 i1 K1 }

M8 b: d* I& w9 k) Z. e! x, u) T: v 对于训练来讲, TensorFlow提供了一整套图像预处理以及数据生成的机制,这里实现了一个简单的常用的数据处理框架, 总结为三步:
) W4 ~$ R4 F! r; F0 `
& q& ~8 [# b; [# h i 获取所有图片的路径
! E4 m, y; n" w0 o
图片预处理的代码
( N# G' \" l7 u! u' A4 S
定义数据生成器
/ C7 O8 h7 Z; f3 s+ J
2. 图像处理相关代码
) q& h/ T$ T: e: }, W8 e7 \4 q
& v/ t( v5 S2 ^* c0 w
1. 获取图片路径
& N! ]' A/ V& c 
3 x0 G" o7 l. R- P3 q6 ?

7 O: [" _+ w* E/ _% l6 a8 f

9 A- L5 s" D# @% x$ c* ] 
, \5 g1 m: T$ s/ b- w& Q5 a2 P
2. Batch Generator
- _( U* T) F4 ^3 ~/ { t) M

6 P& h+ }0 [7 V1 D

" u7 A3 P" h; _/ b( Y6 i7 U" l 
$ X/ `9 q& W& Q, B

7 i L; o: K# i C1 U. u( w 3. 处理效果
7 b2 F" C7 I7 w 
3 p* `* f) A+ p& x$ |/ V4 w, @
, Z$ T9 U# O$ Y1 q2 U E1 v4 }0 z