图像识别(五)| 春天花开却不识?打开百度识图,残差和卷积带你识遍路边野花

朱自清在写《春》的时候,或许也没有完全认清春天的所有花,以至于写出了“有名字的,没名字的,散在草丛中”这样的句子。

如今,时代变了。人手一部手机的我们,遇到不认识的花,随时随地就可以打开手机百度识图功能来完成识图。“杂样儿的,有名字的,有名字的,有名字的,有名字的 … 都散落在手机里,像眼睛,像星星,还眨呀眨的”!而让我们如此轻松加愉悦的完成识图功能的,便是手机背后运行的大量卷积神经网络,或者说是CNN网络。

导 读

上一篇文章,聊了聊卷积的核心思想,那就是特征提取,文章最后也介绍了Resnet50这一图像分类网络。本来打算继续写卷积公式的,但是怎么用比较通俗科普性的文字把枯燥的公式写出来,我一时也不知如何下手,真的体会到了小品《白云黑土》中白云写《月子》的感受。在家,7天憋出6个字来!

估计公式这篇是难产了,后面慢慢写吧。但是,不看公式实际上并不影响整个图像识别系列文章的阅读。于是,我打算接着上篇末尾介绍Resnet50的逻辑,继续聊聊这个图像分类网络,以及它的思想。

为什么叫Resnet50

研究AI网络的人拥有网络命名权。比如我研究出来一个网络,效果很好,要发一篇论文来介绍这个网络,论文中需要给网络起个名字,并且希望这个名字可以流传很广。那么,简单、好记同时又能概括网络思想的名字肯定是首选。

Resnet50 就是这样的名字,这个网络的核心思想,就藏在名字里。Res + net + 50,Res 是 Residual (残差)的缩写,50 指的是整个网络中有50个卷积层。

下图是Resnet50的网络结构图,可以看到,从第一层到最后一层,总共50个卷积算法。

(Resnet50 的网络结构拆解,共50个卷积层)

那么Res(Residual)残差又是个什么东西呢?

残差结构

(残差结构)

所谓残差结构,其实就是在正常的神经网络中,增加一个 short cut 分支结构,也称为高速公路。比如上图中,左侧是正常的卷积层,一层层往下传,在右侧增加一条连线,使得整个网络结构形成了一个残差结构。这样,网络的输出不再是单纯卷积的输出F(x),而是卷积的输出和前面输入的叠加F(x) + X

为什么要增加残差结构

在前面说过,深度卷积神经网络在网络深度不断加深的过程中 ,神经网络会学到不同的特征。

但是,能无限制地加深么?比如使用1000层卷积层进行网络的训练的。答案显然是不行的。原因在于神经网络训练的过程是不断与目标值进行拟合的过程,直到拟合的误差降低到人们的预期,代表着神经网络训练完毕,一个会识图的AI就诞生了。

但是在实际训练过程中,数据的传递除了从网络前端往后传之外,还需要将最后一层与目标值的误差传回到网络前端,从而进行下一轮的训练,得到更小的误差,这一过程成为神经网络的反向传播。

在往回传的过程中,由于误差本身就很小,如果卷积层数过多,在经过激活函数时,很容易发生误差传着传着就消失了,称为梯度消失。

梯度消失的原因有很多种,不好的激活函数、过深的网络层数等都有可能导致误差消失。想象一下,上一轮训练结果的误差传不回来,下一轮如何在上一轮的基础上进行进一步优化训练?结果就会导致怎么训练神经网络最终的结果都无法收敛。

AI根本训练不出来!

残差来救场

残差结构这个时候就可以发挥作用!

想象一下,这个高速公路的存在,可以使得输入数据无损地通过。如果左侧卷积层学习到的数据不够好,那么叠加上无损通过的原始数据,依然保留了原始数据,不至于丢掉原始数据。

而如果左侧卷积层学习到的效果很好,那么依然会保留着学习到的数据,下面的卷积层依然可以在这些数据基础上进一步学习优化。

反向传递也是一样,高速公路的存在,可以确保即使很小的误差也能传递过来,从而避免了梯度消失的发生。说回Resnet50,这个网络就是通过50层卷积的计算,外加残差结构连接,来完成图像分类的。

实际上,目前各大公司直接使用Resnet50进行图像分类是很少的,大多数公司会在这个网络的基础上,结合自家公司的业务场景进行改造,或者直接借鉴Resnet50的网络设计思想,重新设计新的网络,以期获得更加高效的识图效果。看到这,你或许能够了解,当我们打开百度识图完成图像识别时,它的背后,可能不是Resnet50这一网络,但肯定是有卷积和残差这两个算法!

Resnet ,简单,暴力,有效

Resnet50网络的结构其实说简单,它很简单,而且算法思想也很简洁,就是50层卷积的计算,依据卷积局部感受野这一特性,抽取出图像的不同特征,通过最后一层卷积(或者叫做全连接)将图片进行分类。

这样的网络设计,分类效果很好,使得 Resnet50 多次在图像分类大赛中夺冠!Resnet50除了大量使用了卷积这一算法之外,一个简单暴力的残差结构的应用,使得该网络无论在训练还是推理过程中,其效果都极为出彩!

从此,残差这一结构,受到了人们的关注,以至于,有人开始专门研究不同层之间的残差连接。

一句话。Resnet50的核心是卷积和残差,卷积的核心是特征抽取。

这句话,几乎是本系列前5篇文章的中心思想。

下一篇,会开始涉及激活函数,你有没有想过,为什么CNN 的每个卷积后面都需要跟一个激活函数呢?敬请期待。

One More Thing | 大数吃小数

反向传播中,一个很小的误差,在反向传播经过激活函数(比如Sigmoid激活函数)时,有可能结果为零,这就是上面我们说的梯度消失。

但实际上,在计算机的科学计算中,同样存在一个很有趣的事情,使得很小的数在参与计算的过程中,并不起作用。这就是大数吃小数。什么意思呢?

如果你用一个超大的数,去加上一个很小的数,你会发现,结果和你的预期是不一致的。比如我有以下简单的C语言代码,一个超大数是 20000000, 一个很小数是1,两个数相加。

#inlcude "stdio.h"

<< · Back Index ·>>

发表回复

相关推荐

如何完全免費又合法使用0ffice軟件?

如何完全免費又合法使用0ffice軟件,免費激活後,不管是word、excel、PowerPoint等等。你都可以完全免費,合法正常使用。一、...

· 19秒前

腦血管痙攣?偏頭痛?血管性頭痛?神經性頭痛?我到底該怎麼辦?

我這種情況能不能開顱動個手術,運氣不好死在手術臺上我也認瞭。最新的話:我錯瞭,我還是疼(痛苦面具),並沒有痊愈。八年...

· 2分钟前

用人单位要求员工保守商业秘密,是否必须支付保密津贴?

【参考答案】 用人单位要求员工保守商业秘密,如无约定,则用人单位无需支付保密津贴。但是如果是基于保守商业秘密而约定了 ...

· 3分钟前

占有欲極強的狗狗他X悉心照顧的你

下班的時候,你在路上看見一隻小狗,它的眼睛濕漉漉,渾身上下臟兮兮的,看向你的眼神格外的令人憐惜。現在正是冬天最冷的時...

· 5分钟前

基辅公国的建立以及其相关学术争议(《俄罗斯史》笔记)

俄罗斯历史上的第一个国家基辅公国的起源是一个极具争议性的问题。这部早期历史的绝大部分隐藏在神话、传说和可确证事实之间 ...

· 6分钟前