Loading... ## 前言:手写数字识别 如果说波士顿房价预测是机器学习中的hello world,,那么手写数字识别就是深度学习中的hello world。 在处理如下图所示的手写邮政编码的简单图像分类任务时,可以使用基于MNIST数据集的手写数字识别模型。MNIST是深度学习领域标准、易用的成熟数据集,包含60000条训练样本和10000条测试样本。  - 任务输入:一系列手写数字图片,其中每张图片都是28x28的像素矩阵。 - 任务输出:经过了大小归一化和居中处理,输出对应的0~9的数字标签。 本次任务使用的网络模型为卷积神经网络(CNN),它被广泛应用于图像识别,自然语言等领域。 该任务同样遵循五步走战略,即数据处理—模型设计—训练配置—训练过程—模型保存  ## 极简版本的实现 ### 代码 ```python import paddle import paddle.fluid as fluid from paddle.fluid.dygraph.nn import Linear import numpy as np import os from PIL import Image class MNIST(fluid.dygraph.Layer): def __init__(self): super(MNIST,self).__init__() # 定义一层全连接层,输出维度1,激活函数None self.fc = Linear(input_dim = 784,output_dim=1) # 前向计算 def forward(self,inputs): outputs = self.fc(inputs) return outputs # 创建动态图工作环境 with fluid.dygraph.guard(): # 声明网络结构 model = MNIST() # 启动训练模式 model.train() # 定义读取函数 train_loader = paddle.batch(paddle.dataset.mnist.train(),batch_size=16) # 定义优化器,使用SGD,学习率设置为0.001 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001,parameter_list=model.parameters()) epoch_num = 10 # 10次大循环 for epoch in range(epoch_num): for batch_id,data in enumerate(train_loader()): # 数据格式转换 img_data = np.array([x[0] for x in data]).astype("float32") label_data = np.array([x[1] for x in data]).astype("float32").reshape(-1,1) # 为了loss计算,最后一维要是1。-1是占位符,这个位置是为了batch_size预留的 # 将数据转为飞桨动态图格式 img = fluid.dygraph.to_variable(img_data) label = fluid.dygraph.to_variable(label_data) # 前向计算 predict = model.forward(img) # 计算损失 loss = fluid.layers.square_error_cost(predict,label) avg_loss = fluid.layers.mean(loss) # 每训练1000次数据就打印一次 if batch_id != 0 and batch_id % 1000 == 0: print("epoch is {},batch is {}, loss is {}".format(epoch,batch_id,avg_loss.numpy())) # 后向传播 avg_loss.backward() # 更新参数 optimizer.minimize(avg_loss) # 最小化损失 model.clear_gradients() # 清除梯度 # 保存模型 fluid.save_dygraph(model.state_dict(), 'mnist') ``` 说明: 1. 飞桨提供了多个封装好的数据集API,涵盖计算机视觉、自然语言处理、推荐系统等多个领域,帮助读者快速完成深度学习任务。如在手写数字识别任务中,通过paddle.dataset.mnist可以直接获取处理好的MNIST训练集、测试集。 2. 飞桨将维度是28\*28的手写数字图像转成向量形式存储,因此使用飞桨数据加载器读取到的手写数字图像是长度为784(28\*28)的向量。 3. `paddle.batch`函数将MNIST数据集拆分成多个批次,并生成一个可迭代对象,通过enumerate()序列解包后才能调用。需要注意的是batch()是正序读取的,并没有乱序,这里的模型也没有乱序。 4. 输入像素的位置排布信息对理解图像内容非常重要(如将原始尺寸为28\*28图像的像素按照7\*112的尺寸排布,那么其中的数字将不可识别),因此网络的输入设计为28\*28的尺寸,而不是1\*784,以便于模型能够正确处理像素之间的空间信息。 > 事实上,采用只有一层的简单网络(对输入求加权和)时并没有处理位置关系信息,,还是输入1\*784,因此可以猜测出此模型的预测效果有限。在后续优化环节中,介绍的卷积神经网络则更好的考虑了这种位置关系信息,模型的预测效果也会显著提升。 从损失看,效果并不好。 ### 模型测试 模型测试的主要目的是验证训练好的模型是否能正确识别出数字,包括如下四步: - 声明实例 - 加载模型:加载训练过程中保存的模型参数。 - 灌入数据:将测试样本传入模型,模型的状态设置为校验状态(eval),显式告诉框架我们接下来只会使用前向计算的流程,不会计算梯度和梯度反向传播。 - 获取预测结果,取整后作为预测标签输出。 在模型测试之前,需要先从`./work/example_0.jpg`文件中读取样例图片,并进行归一化处理。 ```python def load_img(pic_path): # 加载图片 im = Image.open(pic_path).convert('L') # 转化为灰度图像 im = im.resize((28,28),Image.ANTIALIAS) im = np.array(im).reshape(1,-1).astype(np.float32) # 图像归一化,保持和数据集的数据范围一致 im = 1 - im / 127.5 return im # 预测 with fluid.dygraph.guard(): model = MNIST() # 读取模型参数 model_dict,_ = fluid.load_dygraph("./mnist/mnist") # 载入模型参数 model.load_dict(model_dict) # 模型调为预测模式 model.eval() # 读取图片数据 img = load_img('./mnist/example_0.png') result = model.forward((fluid.dygraph.to_variable(img))) # 打印结果 print("本次预测的数字是", result.numpy().astype('int32')) ``` > 结果是4,实际是0 ## 模型优化:数据处理 上一节模型测试效果并未达成预期。我们换个思路,从横向展开,如下图所示,逐个环节优化,以达到最优训练效果。  上一节,我们通过调用飞桨提供的API([paddle.dataset.mnist](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/data_cn/dataset_cn/mnist_cn.html))加载MNIST数据集。但在工业实践中,我们面临的任务和数据环境千差万别,通常需要自己编写适合当前任务的数据处理程序,一般涉及如下五个环节: - 读入数据 - 划分数据集 - 生成批次数据 - 训练样本集乱序 - 校验数据有效性 其中,数据格式如下: MNIST数据集以json格式存储在本地,其数据存储结构如下图所示。  **data**包含三个元素的列表:**train_set**、**val_set**、 **test_set**,包括50000条训练样本,10000条验证样本,10000条测试样本,共70000条数据。每个样本包含手写数字图片和对应的标签。 - **train_set(训练集)**:用于确定模型参数。 - **val_set(验证集)**:用于调节模型超参数(如多个网络结构、正则化权重的最优选择),另外还有多模型的情况下,哪个更有效也是通过这个集合判断的。。 - **test_set(测试集)**:用于估计应用效果(没有在模型中应用过的数据,更贴近模型在真实场景应用的效果)。 > 超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。 > 为什么要分验证集和测试集呢?因为很多paper里所谓的测试集其实就是验证集,也就是说他们的模型只在“测试集”上表现好,加入新的数据就拉垮了,这里的“测试集”只是帮我们选择哪一些paper的模型比较好,却无法真正应用到工业实践中。因此我们要把验证集合测试集完全分开,以真正确保实践中的效果。 **train_set**包含两个元素的列表:**train_images**、**train_labels**。 - **train_images**:\[50000, 784\]的二维列表,包含50000张图片。每张图片用一个长度为784的向量表示,内容是28*28尺寸的像素灰度值(黑白图片)。 - **train_labels**:\[50000, \]的列表,表示这些图片对应的分类标签,即0-9之间的一个数字。 完整代码如下,仍然分为三部分:读取数据(定义了一个函数),声明网络结构,启动训练。 ```python import paddle import paddle.fluid as fluid from paddle.fluid.dygraph.nn import Linear import numpy as np import os import gzip import json import random def load_data(mode="train"): # 从本地加载数据 data = json.load(gzip.open('./mnist/mnist.json.gz')) train_set,val_set,test_set = data if mode == "train": imgs,labels = train_set[0],train_set[1] elif mode == "val": imgs,labels = val_set[0],val_set[1] elif mode == "test": imgs,labels = test_set[0],test_set[1] else: raise Exception("mode参数只能为['train', 'valid', 'eval']之一") print("{0}数据集数量: {1}".format(mode,len(imgs))) # 数据集校验 assert len(imgs) == len(labels),"图像数量({0})必须等于标签数量({1})".format(en(imgs),len(labels)) # 数据集相关参数 img_rows,img_cols = 28,28 batch_size = 100 # 生成数据索引 index_list = list(range(len(imgs))) # 数据生成器 def data_generator(): # 相当于paddle中的batch # 只有训练模式下才需乱序 if mode == "train": # 索引乱序 random.shuffle(index_list) imgs_list = [] labels_list = [] for index in index_list: # 将数据处理成期望的格式,比如类型为float32,shape为[1, 28, 28] # 对于线性回归模型来说,1*28*28中的“1”并无必要,因为该模型对于尺寸并不敏感。 # 我们这里将其处理为带尺寸的格式,是因为后面有些模型,比如CNN能够很好地处理这种位置信息。 img = np.reshape(imgs[index], [1, img_rows, img_cols]).astype('float32') label = np.reshape(labels[index], [1]).astype('float32') imgs_list.append(img) labels_list.append(label) if len(imgs_list) == batch_size: yield np.array(imgs_list),np.array(labels_list) imgs_list = [] labels_list = [] # 如果剩余的数量少于batchsize,那么就塞到一起 if len(imgs_list) > 0: yield np.array(imgs_list),np.array(labels_list) return data_generator class MNIST(fluid.dygraph.Layer): def __init__(self): super(MNIST,self).__init__() # 定义一层全连接层,输出维度1,激活函数None self.fc = Linear(input_dim = 784,output_dim=1) # 前向计算 def forward(self,inputs): inputs = fluid.layers.reshape(inputs, (-1, 784)) # 这里的-1可以换成inputs.shape[0] outputs = self.fc(inputs) return outputs # 创建动态图工作环境 place = fluid.CPUPlace() # 指定训练硬件 with fluid.dygraph.guard(place): # 声明网络结构 model = MNIST() # 启动训练模式 model.train() # 定义读取函数 train_loader = load_data('train') ''' # 异步读取数据 # 声明一个DataLoader对象,从生成器中读取数据。capaacity是仓库大小, data_reader = fluid.io.DataLoader.from_generator(capacity=5,return_list=True) data_reader.set_batch_generator(train_loader,places=place) ''' # 定义优化器,使用SGD,学习率设置为0.001 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001,parameter_list=model.parameters()) epoch_num = 10 # 10次大循环 for epoch in range(epoch_num): for batch_id,data in enumerate(train_loader()): # 若采用异步读取,则将train_loader()替换为data_reader img_data,label_data = data # 将数据转为飞桨动态图格式 img = fluid.dygraph.to_variable(img_data) label = fluid.dygraph.to_variable(label_data) # 前向计算 predict = model(img) # 计算损失 loss = fluid.layers.square_error_cost(predict,label) avg_loss = fluid.layers.mean(loss) # 每训练200次数据就打印一次 if batch_id != 0 and batch_id % 200 == 0: print("epoch is {},batch is {}, loss is {}".format(epoch,batch_id,avg_loss.numpy())) # 后向传播 avg_loss.backward() # 更新参数 optimizer.minimize(avg_loss) # 最小化损失 model.clear_gradients() # 清除梯度 # 保存模型 fluid.save_dygraph(model.state_dict(), 'mnist') ``` 和极简版本相比,主要是我们自己实现了读取数据,并且实现了数据的乱序。然后在数据处理中我们加入了校验,判断image和label的数量是否一致。 另外代码中加入了异步读取数据的注释,异步读取数据时,数据读取和模型训练并行执行,从而加快了数据读取速度,牺牲一小部分内存换取数据读取效率的提升。 - **同步数据读取**:数据读取与模型训练串行。当模型需要数据时,才运行数据读取函数获得当前批次的数据。在读取数据期间,模型一直等待数据读取结束才进行训练,数据读取速度相对较慢。 - **异步数据读取**:数据读取和模型训练并行。读取到的数据不断的放入缓存区,无需等待模型训练就可以启动下一轮数据读取。当模型训练完一个批次后,不用等待数据读取过程,直接从缓存区获得下一批次数据进行训练,从而加快了数据读取速度。 - **异步队列**:数据读取和模型训练交互的仓库,二者均可以从仓库中读取数据,它的存在使得两者的工作节奏可以解耦。 实现函数为`fluid.io.DataLoader.from_generator`,其参数名称和含义如下: - feed_list:仅在PaddlePaddle静态图中使用,动态图中设置为“None”,本教程默认使用动态图的建模方式; - capacity:表示在DataLoader中维护的队列容量,如果读取数据的速度很快,建议设置为更大的值; - use\_double\_buffer:是一个布尔型的参数,设置为“True”时,Dataloader会预先异步读取下一个batch的数据并放到缓存区; - iterable:表示创建的Dataloader对象是否是可迭代的,一般设置为“True”; - return_list:在动态图模式下需要设置为“True”。 ## 模型优化:网络结构 本节我们介绍介绍两种常见的网络结构:经典的多层全连接神经网络和卷积神经网络。 ### 经典的全连接神经网络 经典的全连接神经网络来包含四层网络:输入层、两个隐含层和输出层,将手写数字识别任务通过全连接神经网络表示,如下图所示。  - 输入层:将数据输入给神经网络。在该任务中,输入层的尺度为28×28的像素值。 - 隐含层:增加网络深度和复杂度,隐含层的节点数是可以调整的,节点数越多,神经网络表示能力越强,参数量也会增加。在该任务中,中间的两个隐含层为10×10的结构,通常隐含层会比输入层的尺寸小,以便对关键信息做抽象,激活函数使用常见的`sigmoid`函数。 - 输出层:输出网络计算结果,输出层的节点数是固定的。如果是回归问题,节点数量为需要回归的数字数量;如果是分类问题,则是分类标签的数量。在该任务中,模型的输出是回归一个数字,输出层的尺寸为1。 **说明:** 隐含层引入非线性激活函数sigmoid是为了增加神经网络的非线性能力。 举例来说,如果一个神经网络采用线性变换,有四个输入$x_1$~$x_4$,一个输出$y$。假设第一层的变换是$z_1=x_1-x_2$和$z_2=x_3+x_4$,第二层的变换是$y=z_1+z_2$,则将两层的变换展开后得到$y=x_1-x_2+x_3+x_4$。也就是说,无论中间累积了多少层线性变换,原始输入和最终输出之间依然是线性关系。 `Sigmoid`是早期神经网络模型中常见的非线性变换函数,通过如下代码,绘制出`Sigmoid`的函数曲线。 ```python def sigmoid(x): # 直接返回sigmoid函数 return 1. / (1. + np.exp(-x)) # param:起点,终点,间距 x = np.arange(-8, 8, 0.2) y = sigmoid(x) plt.plot(x, y) plt.show() ```  针对手写数字识别的任务,网络层的设计如下: - 输入层的尺度为28×28,但批次计算的时候会统一加1个维度(大小为batchsize)。 - 中间的两个隐含层为10×10的结构,激活函数使用常见的`sigmoid`函数。 - 与房价预测模型一样,模型的输出是回归一个数字,输出层的尺寸设置成1。 下述代码为经典全连接神经网络的实现。完成网络结构定义后,即可训练神经网络。 ```python class MNIST(fluid.dygraph.Layer): def __init__(self): super(MNIST,self).__init__() # 定义两层全连接隐含层,输出维度是10,激活函数为sigmoid self.fc1 = Linear(input_dim=784,output_dim=10,act="sigmoid") self.fc2 = Linear(input_dim= 10,output_dim=10,act="sigmoid") # 定义一层全连接输出层,输出维度是1,不使用激活函数 self.fc3 = Linear(input_dim= 10,output_dim=1) # 前向计算 def forward(self,inputs,label=None): inputs = fluid.layers.reshape(inputs,[inputs.shape[0],784]) outputs1 = self.fc1(inputs) outputs2 = self.fc2(outputs1) output_fin = self.fc3(outputs2) return output_fin ``` > 数据处理与训练过程`模型优化:数据处理`一节一样。 ### 卷积神经网络 虽然使用经典的全连接神经网络可以提升一定的准确率,但对于计算机视觉问题,效果最好的模型仍然是卷积神经网络。卷积神经网络针对视觉问题的特点进行了网络结构优化,更适合处理视觉问题。 卷积神经网络由多个卷积层和池化层组成,如下图所示。卷积层负责对输入进行扫描以生成更抽象的特征表示,池化层对这些特征表示进行过滤,保留最关键的特征信息。  **说明:** 本节只简单介绍用卷积神经网络实现手写数字识别任务,以及它带来的效果提升。读者可以先将卷积神经网络简单的理解成是一种比经典的全连接神经网络更强大的模型即可,更详细的原理和实现在后面的计算机视觉章节中会详细讲述。 两层卷积和池化的卷积神经网络实现如下所示。 ```python from paddle.fluid.dygraph.nn import Conv2D, Pool2D, Linear # 多层卷积神经网络实现 class MNIST(fluid.dygraph.Layer): def __init__(self): super(MNIST, self).__init__() # 定义卷积层,输出特征通道num_filters设置为20,卷积核的大小filter_size为5,卷积步长stride=1,padding=2 # 激活函数使用relu self.conv1 = Conv2D(num_channels=1, num_filters=20, filter_size=5, stride=1, padding=2, act='relu') # 定义池化层,池化核pool_size=2,池化步长为2,选择最大池化方式 self.pool1 = Pool2D(pool_size=2, pool_stride=2, pool_type='max') # 定义卷积层,输出特征通道num_filters设置为20,卷积核的大小filter_size为5,卷积步长stride=1,padding=2 self.conv2 = Conv2D(num_channels=20, num_filters=20, filter_size=5, stride=1, padding=2, act='relu') # 定义池化层,池化核pool_size=2,池化步长为2,选择最大池化方式 self.pool2 = Pool2D(pool_size=2, pool_stride=2, pool_type='max') # 定义一层全连接层,输出维度是1,不使用激活函数 self.fc = Linear(input_dim=980, output_dim=1, act=None) # 定义网络前向计算过程,卷积后紧接着使用池化层,最后使用全连接层计算最终输出 def forward(self, inputs): x = self.conv1(inputs) x = self.pool1(x) x = self.conv2(x) x = self.pool2(x) x = fluid.layers.reshape(x, [x.shape[0], -1]) x = self.fc(x) return x ``` 其他部分代码仍然保持不变 ## 模型优化:损失函数 损失函数是模型优化的目标,用于在众多的参数取值中,识别最理想的取值。损失函数的计算在训练过程的代码中,每一轮模型训练的过程都相同,分如下三步: 1. 先根据输入数据正向计算预测输出。 2. 再根据预测值和真实值计算损失。 3. 最后根据损失反向传播梯度并更新参数。 ### 分类任务的损失函数 在之前的方案中,我们复用了房价预测模型的损失函数-均方误差。从预测效果来看,虽然损失不断下降,模型的预测值逐渐逼近真实值,但模型的最终效果不够理想。究其根本,不同的深度学习任务需要有各自适宜的损失函数。我们以房价预测和手写数字识别两个任务为例,详细剖析其中的缘由如下: 1. 房价预测是回归任务,而手写数字识别是分类任务,使用均方误差作为分类任务的损失函数存在逻辑和效果上的缺欠。 2. 房价可以是大于0的任何浮点数,而手写数字识别的输出只可能是0-9之间的10个整数,相当于一种标签。 3. 在房价预测的案例中,由于房价本身是一个连续的实数值,因此以模型输出的数值和真实房价差距作为损失函数(loss)是符合道理的。但对于分类问题,真实结果是分类标签,而模型输出是实数值,导致以两者相减作为损失不具备物理含义。 那么,什么是分类任务的合理输出呢?分类任务本质上是“某种特征组合下的分类概率”。简单举个例子,肿瘤越大(特征),是恶性(标签)的概率就越大。 #### Softmax函数 如果模型能输出10个标签的概率,对应真实标签的概率输出尽可能接近100%,而其他标签的概率输出尽可能接近0%,且所有输出概率之和为1。这是一种更合理的假设!与此对应,真实的标签值可以转变成一个10维度的one-hot向量,在对应数字的位置上为1,其余位置为0,比如标签“6”可以转变成[0,0,0,0,0,0,1,0,0,0]。 为了实现上述思路,需要引入Softmax函数,它可以将原始输出转变成对应标签的概率,公式如下,其中$C$是标签类别个数。 $$ softmax(x_i) = \frac {e^{x_i}}{\sum_{j=0}^N{e^x_j}}, i=0, ..., C-1$$ 从公式的形式可见,每个输出的范围均在0~1之间,且所有输出之和等于1,这是变换后可被解释成概率的基本前提。对应到代码上,我们需要在网络定义部分修改输出层:`self.fc = Linear(input_dim=10, output_dim=1, act='softmax')`,即是对全连接层的输出加一个softmax运算。 **图3** 是一个三个标签的分类模型(三分类)使用的softmax输出层,从中可见原始输出的三个数字3、1、-3,经过softmax层后转变成加和为1的三个概率值0.88、0.12、0。  上文解释了为何让分类模型的输出拟合概率的原因,但为何偏偏用softmax函数完成这个职能? 主要是看中了softmax函数的性质。仍然以肿瘤为例,肿瘤大于某一值,或者小于某一值的时候,肿瘤大小就不会太影响判断其恶性的概率了。也就是说,我们更关注中间大小的值,在中间这个区间上,稍微变化一点,肿瘤是恶性(良性)的概率就会变化很大。如下图。  如果我们用直线拟合,那相当于一个均匀分布,并不符合实际情况。 #### 交叉熵 在模型输出为分类标签的概率时,直接以标签和概率做比较也不够合理,人们更习惯使用交叉熵误差作为分类问题的损失衡量。 交叉熵损失函数的设计是基于最大似然思想:**最大概率得到观察结果的假设是真的**。如何理解呢?举个例子来说,如 **图7** 所示。有两个外形相同的盒子,甲盒中有99个白球,1个蓝球;乙盒中有99个蓝球,1个白球。一次试验取出了一个蓝球,请问这个球应该是从哪个盒子中取出的?  相信大家简单思考后均会得出更可能是从乙盒中取出的,因为从乙盒中取出一个蓝球的概率更高$(P(D|h))$,所以观察到一个蓝球更可能是从乙盒中取出的$(P(h|D))$。$D$是观测的数据,即蓝球白球;$h$是模型,即甲盒乙盒。这就是贝叶斯公式所表达的思想: $$P(h|D) ∝ P(h) \cdot P(D|h) $$ 依据贝叶斯公式,某二分类模型“生成”$n$个训练样本的概率: $$ P(x_1)\cdot S(w^{T}x_1)\cdot P(x_2)\cdot(1-S(w^{T}x_2))\cdot … \cdot P(x_n)\cdot S(w^{T}x_n) $$ **说明:** 对于二分类问题,模型为$S(w^{T}x_i)$,$S$为Sigmoid函数。当$y_i$=1,概率为$S(w^{T}x_i)$;当$y_i$=0,概率为$1-S(w^{T}x_i)$。 经过公式推导,使得上述概率最大等价于最小化交叉熵,得到交叉熵的损失函数。交叉熵的公式如下: $$ L = -[\sum_{k=1}^{n} t_k\log y_k +(1- t_k)\log(1-y_k)] $$ 其中,$\log$表示以$e$为底数的自然对数。$y_k$代表模型输出,$t_k$代表各个标签。$t_k$中只有正确解的标签为1,其余均为0(one-hot表示)。 因此,交叉熵只计算对应着“正确解”标签的输出的自然对数。比如,假设正确标签的索引是“2”,与之对应的神经网络的输出是0.6,则交叉熵误差是$−\log 0.6 = 0.51$;若“2”对应的输出是0.1,则交叉熵误差为$−\log 0.1 = 2.30$。由此可见,交叉熵误差的值是由正确标签所对应的输出结果决定的。 自然对数的函数曲线可由如下代码实现。 ```python import matplotlib.pyplot as plt import numpy as np x = np.arange(0.01,1,0.01) y = np.log(x) plt.title("y=log(x)") plt.xlabel("x") plt.ylabel("y") plt.plot(x,y) plt.show() plt.figure() ```  如自然对数的图形所示,当$x$等于1时,$y$为0;随着$x$向0靠近,$y$逐渐变小。因此,“正确解”标签对应的输出越大,交叉熵的值越接近0;当输出为1时,交叉熵误差为0。反之,如果“正确解”标签对应的输出越小,则交叉熵的值越大。 ### 交叉熵的代码实现 在手写数字识别任务中,仅改动三行代码,就可以将在现有模型的损失函数替换成交叉熵(cross_entropy)。 * 在读取数据部分,将标签的类型设置成`int`,体现它是一个标签而不是实数值(飞桨默认将标签处理成“int64”)。 * 在网络定义部分,将输出层改成“输出十个标签的概率”的模式。 * 在训练过程部分,将损失函数从均方误差换成交叉熵。 在数据处理部分,需要修改标签变量Label的格式,代码如下所示。 - 从:`label = np.reshape(labels[i], [1]).astype('float32')` - 到:`label = np.reshape(labels[i], [1]).astype('int64')` 在网络定义部分,需要修改输出层结构,代码如下所示。 - 从:`self.fc = Linear(input_dim=980, output_dim=1, act=None)` - 到:`self.fc = Linear(input_dim=980, output_dim=10, act='softmax')` 修改计算损失的函数,从均方误差(常用于回归问题)到交叉熵误差(常用于分类问题),代码如下所示。 - 从:`loss = fluid.layers.square_error_cost(predict, label)` - 到:`loss = fluid.layers.cross_entropy(predict, label)` 虽然上述训练过程的损失明显比使用均方误差算法要小,但因为损失函数量纲的变化,我们无法从比较两个不同的Loss得出谁更加优秀。怎么解决这个问题呢?我们可以回归到问题的本质,谁的分类准确率更高来判断。在后面介绍完计算准确率和作图的内容后,读者可以自行测试采用不同损失函数下,模型准确率的高低。 至此,大家阅读论文中常见的一些分类任务模型图就清晰明了,如全连接神经网络、卷积神经网络,在模型的最后阶段,都是使用Softmax进行处理。  由于我们修改了模型的输出格式,因此使用模型做预测时的代码也需要做相应的调整。从模型输出10个标签的概率中选择最大的,将其标签编号输出。 ```python # 读取一张本地的样例图片,转变成模型输入的格式 def load_image(img_path): # 从img_path中读取图像,并转为灰度图 im = Image.open(img_path).convert('L') im.show() im = im.resize((28, 28), Image.ANTIALIAS) im = np.array(im).reshape(1, 1, 28, 28).astype(np.float32) # 图像归一化 im = 1.0 - im / 255. return im # 定义预测过程 with fluid.dygraph.guard(): model = MNIST() params_file_path = 'mnist' img_path = './work/example_0.jpg' # 加载模型参数 model_dict, _ = fluid.load_dygraph("mnist") model.load_dict(model_dict) model.eval() tensor_img = load_image(img_path) #模型反馈10个分类标签的对应概率 results = model(fluid.dygraph.to_variable(tensor_img)) #取概率最大的标签作为预测输出 lab = np.argsort(results.numpy()) print("本次预测的数字是: ", lab[0][-1]) ``` ## 模型优化:算法优化 ### 设置学习率 在深度学习神经网络模型中,通常使用标准的随机梯度下降算法更新参数,学习率代表参数更新幅度的大小,即步长。当学习率最优时,模型的有效容量最大,最终能达到的效果最好。学习率和深度学习任务类型有关,合适的学习率往往需要大量的实验和调参经验。探索学习率最优值时需要注意如下两点: - **学习率不是越小越好**。学习率越小,损失函数的变化速度越慢,意味着我们需要花费更长的时间进行收敛,如 **图2** 左图所示。 - **学习率不是越大越好**。只根据总样本集中的一个批次计算梯度,抽样误差会导致计算出的梯度不是全局最优的方向,且存在波动。在接近最优解时,过大的学习率会导致参数在最优解附近震荡,损失难以收敛,如 **图2** 右图所示。  在训练前,我们往往不清楚一个特定问题设置成怎样的学习率是合理的,因此在训练时可以尝试调小或调大,通过观察Loss下降的情况判断合理的学习率,改下`fluid.optimizer.SGDOptimizer`的`learning_rate=`参数即可。 > parameter_list是需要优化的参数,没有在此列表的参数是不会适用于该学习率的。 ### 学习率的主流优化算法 学习率是优化器的一个参数,调整学习率看似是一件非常麻烦的事情,需要不断的调整步长,观察训练时间和Loss的变化。经过研究员的不断的实验,当前已经形成了四种比较成熟的优化算法:SGD、Momentum、AdaGrad和Adam,效果如 **图3** 所示。  - **[SGD:](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn/SGDOptimizer_cn.html#cn-api-fluid-optimizer-sgdoptimizer)** 随机梯度下降算法,每次训练少量数据,抽样偏差导致参数收敛过程中震荡。 - **[Momentum:](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn/MomentumOptimizer_cn.html#cn-api-fluid-optimizer-momentumoptimizer)** 引入物理“动量”的概念,累积速度,减少震荡,使参数更新的方向更稳定。 每个批次的数据含有抽样误差,导致梯度更新的方向波动较大。如果我们引入物理动量的概念,给梯度下降的过程加入一定的“惯性”累积,就可以减少更新路径上的震荡,即每次更新的梯度由“历史多次梯度的累积方向”和“当次梯度”加权相加得到。历史多次梯度的累积方向往往是从全局视角更正确的方向,这与“惯性”的物理概念很像,也是为何其起名为“Momentum”的原因。类似不同品牌和材质的篮球有一定的重量差别,街头篮球队中的投手(擅长中远距离投篮)喜欢稍重篮球的比例较高。一个很重要的原因是,重的篮球惯性大,更不容易受到手势的小幅变形或风吹的影响。 - **[AdaGrad:](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn/AdagradOptimizer_cn.html#cn-api-fluid-optimizer-adagradoptimizer)** 根据不同参数距离最优解的远近,动态调整学习率。学习率逐渐下降,依据各参数变化大小调整学习率。 通过调整学习率的实验可以发现:当某个参数的现值距离最优解较远时(表现为梯度的绝对值较大),我们期望参数更新的步长大一些,以便更快收敛到最优解。当某个参数的现值距离最优解较近时(表现为梯度的绝对值较小),我们期望参数的更新步长小一些,以便更精细的逼近最优解。类似于打高尔夫球,专业运动员第一杆开球时,通常会大力打一个远球,让球尽量落在洞口附近。当第二杆面对离洞口较近的球时,他会更轻柔而细致的推杆,避免将球打飞。与此类似,参数更新的步长应该随着优化过程逐渐减少,减少的程度与当前梯度的大小有关。根据这个思想编写的优化算法称为“AdaGrad”,Ada是Adaptive的缩写,表示“适应环境而变化”的意思。[RMSProp](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn/RMSPropOptimizer_cn.html#rmspropoptimizer)是在AdaGrad基础上的改进,AdaGrad会累加之前所有的梯度平方,而RMSprop仅仅是计算对应的梯度平均值,因而可以解决AdaGrad学习率急剧下降的问题。 - **[Adam:](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn/AdamOptimizer_cn.html#cn-api-fluid-optimizer-adamoptimizer)** 由于动量和自适应学习率两个优化思路是正交的,因此可以将两个思路结合起来,这就是当前广泛应用的算法。 **说明:** 每种优化算法均有更多的参数设置,详情可查阅[飞桨的官方API文档](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/optimizer_cn.html)。理论最合理的未必在具体案例中最有效,所以模型调参是很有必要的,最优的模型配置往往是在一定“理论”和“经验”的指导下实验出来的。 我们可以尝试选择不同的优化算法训练模型,观察训练时间和损失变化的情况,代码实现如下。 ```python #四种优化算法的设置方案,可以逐一尝试效果 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.001,parameter_list=model.parameters()) #optimizer = fluid.optimizer.AdagradOptimizer(learning_rate=0.01, parameter_list=model.parameters()) #optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.01, parameter_list=model.parameters()) ``` ## 模型优化:资源配置 ### 单GPU训练 飞桨动态图通过fluid.dygraph.guard(place=None)里的`place`参数,设置在GPU上训练还是CPU上训练。 ```python with fluid.dygraph.guard(place=fluid.CPUPlace()) #设置使用CPU资源训神经网络。 with fluid.dygraph.guard(place=fluid.CUDAPlace(0)) #设置使用GPU资源训神经网络,默认使用服务器的第一个GPU卡。"0"是GPU卡的编号,比如一台服务器有的四个GPU卡,编号分别为0、1、2、3。 ``` ```python #仅前3行代码有所变化,在使用GPU时,可以将use_gpu变量设置成True use_gpu = False place = fluid.CUDAPlace(0) if use_gpu else fluid.CPUPlace() with fluid.dygraph.guard(place): …… ``` ### 分布式训练 在工业实践中,很多较复杂的任务需要使用更强大的模型。强大模型加上海量的训练数据,经常导致模型训练耗时严重。比如在计算机视觉分类任务中,训练一个在ImageNet数据集上精度表现良好的模型,大概需要一周的时间,因为过程中我们需要不断尝试各种优化的思路和方案。如果每次训练均要耗时1周,这会大大降低模型迭代的速度。在机器资源充沛的情况下,建议采用分布式训练,大部分模型的训练时间可压缩到小时级别。 分布式训练有两种实现模式:模型并行和数据并行。 #### 模型并行 模型并行是将一个网络模型拆分为多份,拆分后的模型分到多个设备上(GPU)训练,每个设备的训练数据是相同的。模型并行的实现模式可以节省内存,但是应用较为受限。 模型并行的方式一般适用于如下两个场景: 1. **模型架构过大:** 完整的模型无法放入单个GPU。如2012年ImageNet大赛的冠军模型AlexNet是模型并行的典型案例,由于当时GPU内存较小,单个GPU不足以承担AlexNet,因此研究者将AlexNet拆分为两部分放到两个GPU上并行训练。 2. **网络模型的结构设计相对独立:** 当网络模型的设计结构可以并行化时,采用模型并行的方式。如在计算机视觉目标检测任务中,一些模型(如YOLO9000)的边界框回归和类别预测是独立的,可以将独立的部分放到不同的设备节点上完成分布式训练。 #### 数据并行 数据并行与模型并行不同,数据并行每次读取多份数据,读取到的数据输入给多个设备(GPU)上的模型,每个设备上的模型是完全相同的,飞桨采用的就是这种方式。 **说明:** 当前GPU硬件技术快速发展,深度学习使用的主流GPU的内存已经足以满足大多数的网络模型需求,所以大多数情况下使用数据并行的方式。每个设备的模型是完全相同的,但是输入数据不同,因此每个设备的模型计算出的梯度是不同的。如果每个设备的梯度只更新当前设备的模型,就会导致下次训练时,每个模型的参数都不相同。因此我们还需要一个梯度同步机制,保证每个设备的梯度是完全相同的。 梯度同步有两种方式:PRC通信方式和NCCL2通信方式(Nvidia Collective multi-GPU Communication Library)。 **PRC通信方式** PRC通信方式通常用于CPU分布式训练,它有两个节点:参数服务器Parameter server和训练节点Trainer,结构如下图所示。  parameter server收集来自每个设备的梯度更新信息,并计算出一个全局的梯度更新。Trainer用于训练,每个Trainer上的程序相同,但数据不同。当Parameter server收到来自Trainer的梯度更新请求时,统一更新模型的梯度。 **NCCL2通信方式(Collective)** 当前飞桨的GPU分布式训练使用的是基于NCCL2的通信方式,结构如下图所示。  相比PRC通信方式,使用NCCL2(Collective通信方式)进行分布式训练,不需要启动Parameter server进程,每个Trainer进程保存一份完整的模型参数,在完成梯度计算之后通过Trainer之间的相互通信,Reduce梯度数据到所有节点的所有设备,然后每个节点再各自完成参数更新。 飞桨提供了便利的数据并行训练方式,用户只需要对程序进行简单修改,即可实现在多GPU上并行训练。接下来讲述如何将一个单机程序通过简单的改造,变成多机多卡程序。 **说明:** AI Studio当前仅支持单卡GPU,因此本案例需要在本地GPU上执行,无法在AI Studio上演示。 > 我笔电也没有GPU,所以代码也没有验证。 在启动训练前,需要配置如下参数: - 从环境变量获取设备的ID,并指定给CUDAPlace。 ```python device_id = fluid.dygraph.parallel.Env().dev_id place = fluid.CUDAPlace(device_id) ``` - 对定义的网络做预处理,设置为并行模式。 ```python strategy = fluid.dygraph.parallel.prepare_context() ## 新增 model = MNIST() model = fluid.dygraph.parallel.DataParallel(model, strategy) ## 新增 ``` - 定义多GPU训练的reader,不同ID的GPU加载不同的数据集。 ```python valid_loader = paddle.batch(paddle.dataset.mnist.test(), batch_size=16, drop_last=true) valid_loader = fluid.contrib.reader.distributed_batch_reader(valid_loader) ``` - 收集每批次训练数据的loss,并聚合参数的梯度。 ```python avg_loss = model.scale_loss(avg_loss) ## 新增 avg_loss.backward() mnist.apply_collective_grads() ## 新增 ``` 完整程序如下所示。 ```python def train_multi_gpu(): ##修改1-从环境变量获取使用GPU的序号 place = fluid.CUDAPlace(fluid.dygraph.parallel.Env().dev_id) with fluid.dygraph.guard(place): ##修改2-对原模型做并行化预处理 strategy = fluid.dygraph.parallel.prepare_context() model = MNIST() model = fluid.dygraph.parallel.DataParallel(model, strategy) model.train() #调用加载数据的函数 train_loader = load_data('train') ##修改3-多GPU数据读取,必须确保每个进程读取的数据是不同的 train_loader = fluid.contrib.reader.distributed_batch_reader(train_loader) optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.01, parameter_list=model.parameters()) EPOCH_NUM = 5 for epoch_id in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) predict = model(image) loss = fluid.layers.cross_entropy(predict, label) avg_loss = fluid.layers.mean(loss) # 修改4-多GPU训练需要对Loss做出调整,并聚合不同设备上的参数梯度 avg_loss = model.scale_loss(avg_loss) avg_loss.backward() model.apply_collective_grads() # 最小化损失函数,清除本次训练的梯度 optimizer.minimize(avg_loss) model.clear_gradients() if batch_id % 200 == 0: print("epoch: {}, batch: {}, loss is: {}".format(epoch_id, batch_id, avg_loss.numpy())) #保存模型参数 fluid.save_dygraph(model.state_dict(), 'mnist') ``` 启动多GPU的训练,还需要在命令行中设置一些参数变量。打开终端,运行如下命令: ```bash python -m paddle.distributed.launch --selected_gpus=0,1,2,3 --log_dir ./mylog train_multi_gpu.py ``` - paddle.distributed.launch:启动分布式运行。 - selected_gpus:设置使用的GPU的序号(需要是多GPU卡的机器,通过命令watch nvidia-smi查看GPU的序号)。 - log_dir:存放训练的log,若不设置,每个GPU上的训练信息都会打印到屏幕。 - train\_multi\_gpu.py:多GPU训练的程序,包含修改过的train\_multi\_gpu()函数。 ## 模型优化:训练过程优化 训练过程优化思路主要有如下五个关键环节: **1\. 计算分类准确率,观测模型训练效果。** 交叉熵损失函数只能作为优化目标,无法直接准确衡量模型的训练效果。准确率可以直接衡量训练效果,但由于其离散性质,不适合做为损失函数优化神经网络。 **2\. 检查模型训练过程,识别潜在问题。** 如果模型的损失或者评估指标表现异常,通常需要打印模型每一层的输入和输出来定位问题,分析每一层的内容来获取错误的原因。 **3\. 加入校验或测试,更好评价模型效果。** 理想的模型训练结果是在训练集和验证集上均有较高的准确率,如果训练集上的准确率高于验证集,说明网络训练程度不够;如果验证集的准确率高于训练集,可能是发生了过拟合现象。通过在优化目标中加入正则化项的办法,解决过拟合的问题。 **4\. 加入正则化项,避免模型过拟合。** 飞桨框架支持为整体参数加入正则化项,这是通常的做法。此外,飞桨框架也支持为某一层或某一部分的网络单独加入正则化项,以达到精细调整参数训练的效果。 **5\. 可视化分析。** 用户不仅可以通过打印或使用matplotlib库作图,飞桨还提供了更专业的可视化分析工具VisualDL,提供便捷的可视化分析方法。 ### 计算模型的分类准确率 准确率是一个直观衡量分类模型效果的指标,由于这个指标是离散的,因此不适合作为损失函数来优化。通常情况下,交叉熵损失越小的模型,分类的准确率也越高。基于分类准确率,我们可以公平的比较两种损失函数的优劣,例如[【手写数字识别】之损失函数](https://aistudio.baidu.com/aistudio/projectdetail/715334) 章节中均方误差和交叉熵的比较。 飞桨提供了计算分类准确率的API,使用[fluid.layers.accuracy](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/layers_cn/accuracy_cn.html#accuracy)可以直接计算准确率,该API的输入参数input为预测的分类结果predict,输入参数label为数据真实的label。 在下述代码中,我们在模型前向计算过程forward函数中计算分类准确率,并在训练时打印每个批次样本的分类准确率。(`load_data()`函数不变) ```python # 多层卷积神经网络实现 class MNIST(fluid.dygraph.Layer): def __init__(self): …… # 定义网络前向计算过程,卷积后紧接着使用池化层,最后使用全连接层计算最终输出 def forward(self, inputs,label=None): x = self.conv1(inputs) x = self.pool1(x) x = self.conv2(x) x = self.pool2(x) x = fluid.layers.reshape(x, [x.shape[0], -1]) x = self.fc(x) if label is not None: acc = fluid.layers.accuracy(input=x, label=label) # x是预测值,label是真实值 return x, acc else: return x with fluid.dygraph.guard(place): …… EPOCH_NUM = 5 for epoch_id in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) #前向计算的过程,同时拿到模型输出值和分类准确率 predict, acc = model(image, label) …… ``` ### 检查模型训练过程,识别潜在训练问题 使用飞桨动态图可以方便的查看和调试训练的执行过程。在网络定义的`Forward`函数中,可以打印每一层输入输出的尺寸,以及每层网络的参数。通过查看这些信息,不仅可以更好地理解训练的执行过程,还可以发现潜在问题,或者启发继续优化的思路。 在下述程序中,使用`check_shape`变量控制是否打印“尺寸”,验证网络结构是否正确。使用`check_content`变量控制是否打印“内容值”,验证数据分布是否合理。假如在训练中发现中间层的部分输出持续为0,说明该部分的网络结构设计存在问题,没有充分利用。 ```python # 定义模型结构 class MNIST(fluid.dygraph.Layer): def __init__(self): super(MNIST, self).__init__() # 定义一个卷积层,使用relu激活函数 self.conv1 = Conv2D(num_channels=1, num_filters=20, filter_size=5, stride=1, padding=2, act='relu') # 定义一个池化层,池化核为2,步长为2,使用最大池化方式 self.pool1 = Pool2D(pool_size=2, pool_stride=2, pool_type='max') # 定义一个卷积层,使用relu激活函数 self.conv2 = Conv2D(num_channels=20, num_filters=20, filter_size=5, stride=1, padding=2, act='relu') # 定义一个池化层,池化核为2,步长为2,使用最大池化方式 self.pool2 = Pool2D(pool_size=2, pool_stride=2, pool_type='max') # 定义一个全连接层,输出节点数为10 self.fc = Linear(input_dim=980, output_dim=10, act='softmax') # 加入对每一层输入和输出的尺寸和数据内容的打印,根据check参数决策是否打印每层的参数和输出尺寸 def forward(self, inputs, label=None, check_shape=False, check_content=False): # 给不同层的输出不同命名,方便调试 outputs1 = self.conv1(inputs) outputs2 = self.pool1(outputs1) outputs3 = self.conv2(outputs2) outputs4 = self.pool2(outputs3) _outputs4 = fluid.layers.reshape(outputs4, [outputs4.shape[0], -1]) outputs5 = self.fc(_outputs4) # 选择是否打印神经网络每层的参数尺寸和输出尺寸,验证网络结构是否设置正确 if check_shape: # 打印每层网络设置的超参数-卷积核尺寸,卷积步长,卷积padding,池化核尺寸 print("\n########## print network layer's superparams ##############") print("conv1-- kernel_size:{}, padding:{}, stride:{}".format(self.conv1.weight.shape, self.conv1._padding, self.conv1._stride)) print("conv2-- kernel_size:{}, padding:{}, stride:{}".format(self.conv2.weight.shape, self.conv2._padding, self.conv2._stride)) print("pool1-- pool_type:{}, pool_size:{}, pool_stride:{}".format(self.pool1._pool_type, self.pool1._pool_size, self.pool1._pool_stride)) print("pool2-- pool_type:{}, poo2_size:{}, pool_stride:{}".format(self.pool2._pool_type, self.pool2._pool_size, self.pool2._pool_stride)) print("fc-- weight_size:{}, bias_size_{}, activation:{}".format(self.fc.weight.shape, self.fc.bias.shape, self.fc._act)) # 打印每层的输出尺寸 print("\n########## print shape of features of every layer ###############") print("inputs_shape: {}".format(inputs.shape)) print("outputs1_shape: {}".format(outputs1.shape)) print("outputs2_shape: {}".format(outputs2.shape)) print("outputs3_shape: {}".format(outputs3.shape)) print("outputs4_shape: {}".format(outputs4.shape)) print("outputs5_shape: {}".format(outputs5.shape)) # 选择是否打印训练过程中的参数和输出内容,可用于训练过程中的调试 if check_content: # 打印卷积层的参数-卷积核权重,权重参数较多,此处只打印部分参数 print("\n########## print convolution layer's kernel ###############") print("conv1 params -- kernel weights:", self.conv1.weight[0][0]) print("conv2 params -- kernel weights:", self.conv2.weight[0][0]) # 创建随机数,随机打印某一个通道的输出值 idx1 = np.random.randint(0, outputs1.shape[1]) idx2 = np.random.randint(0, outputs3.shape[1]) # 打印卷积-池化后的结果,仅打印batch中第一个图像对应的特征 print("\nThe {}th channel of conv1 layer: ".format(idx1), outputs1[0][idx1]) print("The {}th channel of conv2 layer: ".format(idx2), outputs3[0][idx2]) print("The output of last layer:", outputs5[0], '\n') # 如果label不是None,则计算分类精度并返回 if label is not None: acc = fluid.layers.accuracy(input=outputs5, label=label) return outputs5, acc else: return outputs5 #在使用GPU机器时,可以将use_gpu变量设置成True use_gpu = False place = fluid.CUDAPlace(0) if use_gpu else fluid.CPUPlace() with fluid.dygraph.guard(place): model = MNIST() model.train() #四种优化算法的设置方案,可以逐一尝试效果 optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.01, parameter_list=model.parameters()) #optimizer = fluid.optimizer.MomentumOptimizer(learning_rate=0.01, momentum=0.9, parameter_list=model.parameters()) #optimizer = fluid.optimizer.AdagradOptimizer(learning_rate=0.01, parameter_list=model.parameters()) #optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.01, parameter_list=model.parameters()) EPOCH_NUM = 1 for epoch_id in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据,变得更加简洁 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) #前向计算的过程,同时拿到模型输出值和分类准确率 if batch_id == 0 and epoch_id==0: # 打印模型参数和每层输出的尺寸 predict, acc = model(image, label, check_shape=True, check_content=False) elif batch_id==401: # 打印模型参数和每层输出的值 predict, acc = model(image, label, check_shape=False, check_content=True) else: predict, acc = model(image, label) #计算损失,取一个批次样本损失的平均值 loss = fluid.layers.cross_entropy(predict, label) avg_loss = fluid.layers.mean(loss) #每训练了100批次的数据,打印下当前Loss的情况 if batch_id % 200 == 0: print("epoch: {}, batch: {}, loss is: {}, acc is {}".format(epoch_id, batch_id, avg_loss.numpy(), acc.numpy())) #后向传播,更新参数的过程 avg_loss.backward() optimizer.minimize(avg_loss) model.clear_gradients() #保存模型参数 fluid.save_dygraph(model.state_dict(), 'mnist') print("Model has been saved.") ``` ### 加入校验或测试,更好评价模型效果 在训练过程中,我们会发现模型在训练样本集上的损失在不断减小。但这是否代表模型在未来的应用场景上依然有效?为了验证模型的有效性,通常将样本集合分成三份,训练集、校验集和测试集。 - **训练集** :用于训练模型的参数,即训练过程中主要完成的工作。 - **校验集** :用于对模型超参数的选择,比如网络结构的调整、正则化项权重的选择等。 - **测试集** :用于模拟模型在应用后的真实效果。因为测试集没有参与任何模型优化或参数训练的工作,所以它对模型来说是完全未知的样本。在不以校验数据优化网络结构或模型超参数时,校验数据和测试数据的效果是类似的,均更真实的反映模型效果。 如下程序读取上一步训练保存的模型参数,读取测试数据集,并测试模型在测试数据集上的效果。 ```python with fluid.dygraph.guard(): print('start evaluation .......') #加载模型参数 model = MNIST() model_state_dict, _ = fluid.load_dygraph('mnist') model.load_dict(model_state_dict) model.eval() eval_loader = load_data('eval') acc_set = [] avg_loss_set = [] for batch_id, data in enumerate(eval_loader()): x_data, y_data = data img = fluid.dygraph.to_variable(x_data) label = fluid.dygraph.to_variable(y_data) prediction, acc = model(img, label) loss = fluid.layers.cross_entropy(input=prediction, label=label) avg_loss = fluid.layers.mean(loss) # batch内loss平均 acc_set.append(float(acc.numpy())) avg_loss_set.append(float(avg_loss.numpy())) #计算多个batch的平均损失和准确率 acc_val_mean = np.array(acc_set).mean() avg_loss_val_mean = np.array(avg_loss_set).mean() # batch间loss平均 print('loss={}, acc={}'.format(avg_loss_val_mean, acc_val_mean)) ``` 从测试的效果来看,模型在测试集上依然有93%的准确率,证明它是有预测效果的。 ### 加入正则化项,避免模型过拟合 #### 过拟合现象 对于样本量有限、但需要使用强大模型的复杂任务,模型很容易出现过拟合的表现,即在训练集上的损失小,在验证集或测试集上的损失较大,如下图所示。  反之,如果模型在训练集和测试集上均损失较大,则称为欠拟合。过拟合表示模型过于敏感,学习到了训练数据中的一些误差,而这些误差并不是真实的泛化规律(可推广到测试集上的规律)。欠拟合表示模型还不够强大,还没有很好的拟合已知的训练样本,更别提测试样本了。因为欠拟合情况容易观察和解决,只要训练loss不够好,就不断使用更强大的模型即可,因此实际中我们更需要处理好过拟合的问题。 #### 过拟合原因 造成过拟合的原因是模型过于敏感,而训练数据量太少或其中的噪音太多。 如下图所示,理想的回归模型是一条坡度较缓的抛物线,欠拟合的模型只拟合出一条直线,显然没有捕捉到真实的规律,但过拟合的模型拟合出存在很多拐点的抛物线,显然是过于敏感,也没有正确表达真实规律。  如下图所示,理想的分类模型是一条半圆形的曲线,欠拟合用直线作为分类边界,显然没有捕捉到真实的边界,但过拟合的模型拟合出很扭曲的分类边界,虽然对所有的训练数据正确分类,但对一些较为个例的样本所做出的妥协,高概率不是真实的规律。  **假设模型也会犯错,通过分析发现可能的原因:** 1. 情况1:训练数据存在噪音,导致模型学到了噪音,而不是真实规律。 2. 情况2:使用强大模型(表示空间大)的同时训练数据太少,导致在训练数据上表现良好的候选假设太多,锁定了一个“虚假正确”的假设。 **对于情况1,我们使用数据清洗和修正来解决。 对于情况2,我们或者限制模型表示能力,或者收集更多的训练数据。** 而清洗训练数据中的错误,或收集更多的训练数据往往是一句“正确的废话”,在任何时候我们都想获得更多更高质量的数据。在实际项目中,更快、更低成本可控制过拟合的方法,只有限制模型的表示能力。 #### 正则化项 为了防止模型过拟合,在没有扩充样本量的可能下,只能降低模型的复杂度,可以通过限制参数的数量或可能取值(参数值尽量小)实现。 具体来说,在模型的优化目标(损失)中人为加入对参数规模的惩罚项。当参数越多或取值越大时,该惩罚项就越大。通过调整惩罚项的权重系数,可以使模型在“尽量减少训练损失”和“保持模型的泛化能力”之间取得平衡。泛化能力表示模型在没有见过的样本上依然有效。正则化项的存在,增加了模型在训练集上的损失。 飞桨支持为所有参数加上统一的正则化项,也支持为特定的参数添加正则化项。前者的实现如下代码所示,仅在优化器中设置`regularization`参数即可实现。使用参数`regularization_coeff`调节正则化项的权重,权重越大时,对模型复杂度的惩罚越高。 ```python #各种优化算法均可以加入正则化项,避免过拟合,参数regularization_coeff调节正则化项的权重 #optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.01, regularization=fluid.regularizer.L2Decay(regularization_coeff=0.1),parameter_list=model.parameters())) optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.01, regularization=fluid.regularizer.L2Decay(regularization_coeff=0.1),parameter_list=model.parameters()) ``` ### 可视化分析 两种方案,一是Matplotlib库,另外一个是VisualDL,我们直接上VisualDL。 ```python pip install --upgrade --pre visualdl ``` **说明:** 本案例不支持AI Studio演示,请读者在本地安装的飞桨上实践。 * 步骤1:引入VisualDL库,定义作图数据存储位置(供第3步使用),本案例的路径是“log”。 ```python from visualdl import LogWriter log_writer = LogWriter("./log") ``` * 步骤2:在训练过程中插入作图语句。当每100个batch训练完成后,将当前损失作为一个新增的数据点(iter和acc的映射对)存储到第一步设置的文件中。使用变量iter记录下已经训练的批次数,作为作图的X轴坐标。 ```python log_writer.add_scalar(tag = 'acc', step = iter, value = avg_acc.numpy()) log_writer.add_scalar(tag = 'loss', step = iter, value = avg_loss.numpy()) iter = iter + 100 ``` ```python #引入VisualDL库,并设定保存作图数据的文件位置 from visualdl import LogWriter log_writer = LogWriter(logdir="./log") with fluid.dygraph.guard(): model = MNIST() model.train() optimizer = fluid.optimizer.SGDOptimizer(learning_rate=0.01, parameter_list=model.parameters()) EPOCH_NUM = 10 iter = 0 for epoch_id in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据,变得更加简洁 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) #前向计算的过程,同时拿到模型输出值和分类准确率 predict, avg_acc = model(image, label) #计算损失,取一个批次样本损失的平均值 loss = fluid.layers.cross_entropy(predict, label) avg_loss = fluid.layers.mean(loss) #每训练了100批次的数据,打印下当前Loss的情况 if batch_id % 100 == 0: print("epoch: {}, batch: {}, loss is: {}, acc is {}".format(epoch_id, batch_id, avg_loss.numpy(), avg_acc.numpy())) log_writer.add_scalar(tag = 'acc', step = iter, value = avg_acc.numpy()) log_writer.add_scalar(tag = 'loss', step = iter, value = avg_loss.numpy()) iter = iter + 100 #后向传播,更新参数的过程 avg_loss.backward() optimizer.minimize(avg_loss) model.clear_gradients() #保存模型参数 fluid.save_dygraph(model.state_dict(), 'mnist') ``` - 步骤3:命令行启动VisualDL。 使用“visualdl --logdir \[数据文件所在文件夹路径\] 的命令启动VisualDL。在VisualDL启动后,命令行会打印出可用浏览器查阅图形结果的网址。 ``` $ visualdl --logdir ./log --port 8080 ``` - 步骤4:打开浏览器,查看作图结果,如 **图6** 所示。 查阅的网址在第三步的启动命令后会打印出来(如http://127.0.0.1:8080/),将该网址输入浏览器地址栏刷新页面的效果如下图所示。除了右侧对数据点的作图外,左侧还有一个控制板,可以调整诸多作图的细节。  > 我安装visualDL失败了,连带着我paddle和numpy包都出错了,打算重装系统了…… ## 扩展:恢复训练 模型训练一次要很久,如果因为不可抗力而中断,那就难以接受了,所以我们需要一个实时保存结果,以便下次恢复训练的方案。 > 数据读取和网络结构不变 ### 模型保存 在开始介绍使用飞桨恢复训练前,先正常训练一个模型,优化器使用Adam,使用动态变化的学习率,学习率从0.01衰减到0.001。每训练一轮后保存一次模型,之后将采用其中某一轮的模型参数进行恢复训练,验证一次性训练和中断再恢复训练的模型表现是否一致(训练loss的变化)。 **注意进行恢复训练的程序不仅要保存模型参数,还要保存优化器参数**。这是因为某些优化器含有一些随着训练过程变换的参数,例如Adam, AdaGrad等优化器采用可变学习率的策略,随着训练进行会逐渐减少学习率。这些优化器的参数对于恢复训练至关重要。 为了演示这个特性,下面训练程序使用Adam优化器,学习率以多项式曲线从0.01衰减到0.001(polynomial decay)。 ```python lr = fluid.dygraph.PolynomialDecay(0.01, total_steps, 0.001) ``` - learning_rate:初始学习率 - decay_steps:衰减步数 - end\_learning\_rate:最终学习率 - power:多项式的幂,默认值为1.0 - cycle:下降后是否重新上升,polynomial decay的变化曲线下图所示。  ```python #在使用GPU机器时,可以将use_gpu变量设置成True use_gpu = False place = fluid.CUDAPlace(0) if use_gpu else fluid.CPUPlace() with fluid.dygraph.guard(place): model = MNIST() model.train() EPOCH_NUM = 5 BATCH_SIZE = 100 # 定义学习率,并加载优化器参数到模型中 total_steps = (int(60000//BATCH_SIZE) + 1) * EPOCH_NUM lr = fluid.dygraph.PolynomialDecay(0.01, total_steps, 0.001) # 使用Adam优化器 optimizer = fluid.optimizer.AdamOptimizer(learning_rate=lr, parameter_list=model.parameters()) for epoch_id in range(EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据,变得更加简洁 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) #前向计算的过程,同时拿到模型输出值和分类准确率 predict, acc = model(image, label) avg_acc = fluid.layers.mean(acc) #计算损失,取一个批次样本损失的平均值 loss = fluid.layers.cross_entropy(predict, label) avg_loss = fluid.layers.mean(loss) #每训练了200批次的数据,打印下当前Loss的情况 if batch_id % 200 == 0: print("epoch: {}, batch: {}, loss is: {}, acc is {}".format(epoch_id, batch_id, avg_loss.numpy(),avg_acc.numpy())) #后向传播,更新参数的过程 avg_loss.backward() optimizer.minimize(avg_loss) model.clear_gradients() # 保存模型参数和优化器的参数 fluid.save_dygraph(model.state_dict(), './checkpoint/mnist_epoch{}'.format(epoch_id)) fluid.save_dygraph(optimizer.state_dict(), './checkpoint/mnist_epoch{}'.format(epoch_id)) ``` ### 恢复训练 在上述训练代码中,我们训练了五轮(epoch)。在每轮结束时,均保存了模型参数和优化器相关的参数。 - 使用`model.state_dict()`获取模型参数。 - 使用`optimizer.state_dict()`获取优化器和学习率相关的参数。 - 调用`fluid.save_dygraph()`将参数保存到本地。 比如第一轮训练保存的文件是mnist\_epoch0.pdparams,mnist\_epoch0.pdopt,分别存储了模型参数和优化器参数。 当加载模型时,如果模型参数文件和优化器参数文件是相同的,我们可以使用`load_dygraph`同时加载这两个文件,如下代码所示。 ```python params_dict, opt_dict = fluid.load_dygraph(params_path) ``` 如果模型参数文件和优化器参数文件的名字不同,需要调用两次`load_dygraph`分别获得模型参数和优化器参数。 下面的代码将展示恢复训练的过程,并验证恢复训练是否成功。其中,我们重新定义一个`train_again()`训练函数,加载模型参数并从第一个epoch开始训练,以便读者可以校验恢复训练后的损失变化。 ```python params_path = "./checkpoint/mnist_epoch0" #在使用GPU机器时,可以将use_gpu变量设置成True use_gpu = False place = fluid.CUDAPlace(0) if use_gpu else fluid.CPUPlace() with fluid.dygraph.guard(place): # 加载模型参数到模型中 params_dict, opt_dict = fluid.load_dygraph(params_path) model = MNIST() model.load_dict(params_dict) EPOCH_NUM = 5 BATCH_SIZE = 100 # 定义学习率,并加载优化器参数到模型中 total_steps = (int(60000//BATCH_SIZE) + 1) * EPOCH_NUM lr = fluid.dygraph.PolynomialDecay(0.01, total_steps, 0.001) # 使用Adam优化器 optimizer = fluid.optimizer.AdamOptimizer(learning_rate=lr, parameter_list=model.parameters()) optimizer.set_dict(opt_dict) for epoch_id in range(1, EPOCH_NUM): for batch_id, data in enumerate(train_loader()): #准备数据,变得更加简洁 image_data, label_data = data image = fluid.dygraph.to_variable(image_data) label = fluid.dygraph.to_variable(label_data) #前向计算的过程,同时拿到模型输出值和分类准确率 predict, acc = model(image, label) avg_acc = fluid.layers.mean(acc) #计算损失,取一个批次样本损失的平均值 loss = fluid.layers.cross_entropy(predict, label) avg_loss = fluid.layers.mean(loss) #每训练了200批次的数据,打印下当前Loss的情况 if batch_id % 200 == 0: print("epoch: {}, batch: {}, loss is: {}, acc is {}".format(epoch_id, batch_id, avg_loss.numpy(),avg_acc.numpy())) #后向传播,更新参数的过程 avg_loss.backward() optimizer.minimize(avg_loss) model.clear_gradients() ``` ## 附录:飞桨API的查阅方法 方法一:上官网,地址在这:[https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/index_cn.html](https://www.paddlepaddle.org.cn/documentation/docs/zh/api_cn/index_cn.html) 方法二:Vscode是支持鼠标移到函数上直接显示帮助的,如下图  当然,如果你想找某一类的问题,比如支持哪些优化算法,还是得上官网上查。 <hr class="content-copyright" style="margin-top:50px" /><blockquote class="content-copyright" style="font-style:normal"><p class="content-copyright">版权属于:雁陎</p><p class="content-copyright">本文链接:<a class="content-copyright" href="https://www.sitstars.com/archives/103/">https://www.sitstars.com/archives/103/</a></p><p class="content-copyright">转载时须注明出处及本声明</p></blockquote> Last modification:August 16th, 2020 at 03:05 pm © 允许规范转载
看到你的网站,觉得很不错,希望能与你互相友情链接…
我的网站:建站知道网-http://wozhidaole.com.cn/
如果同意的话,回复后互相上链接!
写得真详细,图文并茂。
写的很好学到了,加油ヾ(≧∇≦*)ゝ