乐读窝

深度学习

乐读窝 > 文学理论 > 深度学习

9.10 卷积网络的神经科学基础

书籍名:《深度学习》    作者:伊恩.古德费洛



卷积网络也许是生物学启发人工智能的最为成功的案例。虽然卷积网络也经过许多其他领域的指导,但是神经网络的一些关键设计原则来自神经科学。

卷积网络的历史始于神经科学实验,远早于相关计算模型的发展。为了确定关于哺乳动物视觉系统如何工作的许多最基本的事实,神经生理学家David  Hubel和Torsten  Wiesel合作多年(Hubel  and  Wiesel,1959,1962,1968)。他们的成就最终获得了诺贝尔奖。他们的发现对当代深度学习模型有最大影响的是基于记录猫的单个神经元的活动。他们观察了猫的脑内神经元如何响应投影在猫前面屏幕上精确位置的图像。他们的伟大发现是,处于视觉系统较为前面的神经元对非常特定的光模式(例如精确定向的条纹)反应最强烈,但对其他模式几乎完全没有反应。

他们的工作有助于表征大脑功能的许多方面,这些方面超出了本书的范围。从深度学习的角度来看,我们可以专注于简化的、草图形式的大脑功能视图。

在这个简化的视图中,我们关注被称为V1的大脑的一部分,也称为初级视觉皮层(primary  visual  cortex)。V1是大脑对视觉输入开始执行显著高级处理的第一个区域。在该草图视图中,图像是由光到达眼睛并刺激视网膜(眼睛后部的光敏组织)形成的。视网膜中的神经元对图像执行一些简单的预处理,但是基本不改变它被表示的方式。然后图像通过视神经和称为外侧膝状核的脑部区域。这些解剖区域的主要作用是仅仅将信号从眼睛传递到位于头后部的V1。

卷积网络层被设计为描述V1的三个性质:

(1)V1可以进行空间映射。它实际上具有二维结构来反映视网膜中的图像结构。例如,到达视网膜下半部的光仅影响V1相应的一半。卷积网络通过用二维映射定义特征的方式来描述该特性。

(2)V1包含许多简单细胞(simple  cell)。简单细胞的活动在某种程度上可以概括为在一个小的空间位置感受野内的图像的线性函数。卷积网络的检测器单元被设计为模拟简单细胞的这些性质。

(3)V1还包括许多复杂细胞(complex  cell)。这些细胞响应类似于由简单细胞检测的那些特征,但是复杂细胞对于特征的位置微小偏移具有不变性。这启发了卷积网络的池化单元。复杂细胞对于照明中的一些变化也是不变的,不能简单地通过在空间位置上池化来刻画。这些不变性激发了卷积网络中的一些跨通道池化策略,例如maxout单元(Goodfellow  et  al.,2013b)。

虽然我们最了解V1,但是一般认为相同的基本原理也适用于视觉系统的其他区域。在视觉系统的草图视图中,当我们逐渐深入大脑时,遵循池化的基本探测策略被反复执行。当穿过大脑的多个解剖层时,我们最终找到了响应一些特定概念的细胞,并且这些细胞对输入的很多种变换都具有不变性。这些细胞被昵称为“祖母细胞”——这个想法是一个人可能有一个神经元,当看到他祖母的照片时该神经元被激活,无论祖母是出现在照片的左边或右边,无论照片是她脸部的特写镜头还是她的全身照,也无论她处在光亮还是黑暗中,等等。

这些祖母细胞已经被证明确实存在于人脑中,在一个被称为内侧颞叶的区域(Quiroga  et  al.,2005)。研究人员测试了单个神经元是否会响应名人的照片。他们发现了后来被称为“Halle  Berry神经元”的神经元:由Halle  Berry的概念激活的单个神经元。当一个人看到Halle  Berry的照片、Halle  Berry的图画甚至包含单词“Halle  Berry”的文本时,这个神经元会触发。当然,这与Halle  Berry本人无关,其他神经元会对Bill  Clinton、Jennifer  Aniston等人的出现做出响应。

这些内侧颞叶神经元比现代卷积网络更通用一些,这些网络在读取名称时不会自动联想到识别人或对象。与卷积网络的最后一层在特征上最接近的类比是称为颞下皮质(IT)的脑区。当查看一个对象时,信息从视网膜经LGN流到V1,然后到V2、V4,之后是IT。这发生在瞥见对象的前100ms内。如果允许一个人继续观察对象更多的时间,那么信息将开始回流,因为大脑使用自上而下的反馈来更新较低级脑区中的激活。然而,如果我们打断人的注视,并且只观察前100ms内的大多数前向激活导致的放电率,那么IT被证明与卷积网络非常相似。卷积网络可以预测IT放电率,并且在执行对象识别任务时与人类(时间有限的情况)非常类似(DiCarlo,2013)。

话虽如此,卷积网络和哺乳动物的视觉系统之间还是有许多区别。这些区别有一些是计算神经科学家所熟知的,但超出了本书的范围。还有一些区别尚未知晓,因为关于哺乳动物视觉系统如何工作的许多基本问题仍未得到回答。简要列表如下:

人眼大部分是非常低的分辨率,除了一个被称为中央凹(fovea)的小块。中央凹仅观察在手臂长度距离内一块拇指大小的区域。虽然我们觉得自己可以看到高分辨率的整个场景,但这是由大脑的潜意识部分创建的错觉,因为它“缝合”了我们瞥见的若干个小区域。大多数卷积网络实际上接收大的全分辨率的照片作为输入。人类大脑控制几次眼动,称为扫视(saccade),以瞥见场景中最显眼的或任务相关的部分。将类似的注意力机制融入深度学习模型是一个活跃的研究方向。在深度学习的背景下,注意力机制对于自然语言处理是最成功的,参考第12.4.5.1节。研究者已经研发了几种具有视觉机制的视觉模型,但到目前为止还没有成为主导方法(Larochelle  and  Hinton,2010;Denil  et  al.,2012)。

人类视觉系统集成了许多其他感觉,例如听觉,以及像我们的心情和想法一样的因素。卷积网络迄今为止纯粹是视觉的。

人类视觉系统不仅仅用于识别对象。它能够理解整个场景,包括许多对象和对象之间的关系,以及处理我们的身体与世界交互所需的丰富的三维几何信息。卷积网络已经应用于这些问题中的一些,但是这些应用还处于起步阶段。

即使像V1这样简单的大脑区域也受到来自较高级别的反馈的严重影响。反馈已经在神经网络模型中被广泛地探索,但还没有被证明提供了引人注目的改进。

虽然前馈IT放电频率刻画了与卷积网络特征很多相同的信息,但是仍不清楚中间计算的相似程度。大脑可能使用非常不同的激活和池化函数。单个神经元的激活可能不能用单个线性过滤器的响应来很好地表征。最近的V1模型涉及对每个神经元的多个二次过滤器(Rust  et  al.,2005)。事实上,我们的“简单细胞”和“复杂细胞”的草图图片可能并没有区别;简单细胞和复杂细胞可能是相同种类的细胞,但是它们的“参数”使其能够实现从我们所说的“简单”到“复杂”的连续的行为。

还值得一提的是,神经科学很少告诉我们该如何训练卷积网络。具有跨多个空间位置的参数共享的模型结构,可以追溯到早期关于视觉的联结主义模型(Marr  and  Poggio,1976),但是这些模型没有使用现代的反向传播算法和梯度下降。例如,(Fukushima,1980)结合了现代卷积网络的大多数模型结构设计元素,但依赖于层次化的无监督聚类算法。

Lang  and  Hinton(1988)引入反向传播来训练时延神经网络(time  delay  neural  network,TDNN)。使用当代术语来说,TDNN是用于时间序列的一维卷积网络。用于这些模型的反向传播不受任何神经科学观察的启发,并且被一些人认为是生物不可信的。在基于使用反向传播训练的TDNN成功之后,LeCun  et  al.(1989)通过将相同的训练算法应用于图像的二维卷积来发展现代卷积网络。

到目前为止,我们已经描述了简单细胞对于某些特征是如何呈现粗略的线性和选择性,复杂细胞是如何更加非线性,并且对于这些简单细胞特征的某些变换具有不变性,以及在选择性和不变性之间交替放置的层可以产生对非常特定现象的祖母细胞。我们还没有精确描述这些单个细胞检测到了什么。在深度非线性网络中,可能难以理解单个细胞的功能。第一层中的简单细胞相对更容易分析,因为它们的响应由线性函数驱动。在人工神经网络中,我们可以直接显示卷积核的图像,来查看卷积层的相应通道是如何响应的。在生物神经网络中,我们不能访问权重本身。相反,我们在神经元自身中放置一个电极,在动物视网膜前显示几个白噪声图像样本,并记录这些样本中的每一个是如何导致神经元激活的。然后,我们可以对这些响应拟合线性模型,以获得近似的神经元权重。这种方法被称为反向相关(reverse  correlation)(Ringach  and  Shapley,2004)。

反向相关向我们表明,大多数的V1细胞具有由Gabor函数(Gabor  function)所描述的权重。Gabor函数描述在图像中的二维点处的权重。我们可以认为图像是二维坐标I(x,y)的函数。类似地,我们可以认为简单细胞是在图像中的一组位置采样,这组位置由一组x坐标和一组y坐标来定义,并且使用的权重w(x,y)也是位置的函数。从这个观点来看,简单细胞对于图像的响应由下式给出

特别地,w(x,y)采用Gabor函数的形式:

其中

以及

这里α、βx、βy、f、φ、x0、y0、τ都是控制Gabor函数性质的参数。图9.18给出了Gabor函数在不同参数集上的一些例子。

图9.18 具有各种参数设置的Gabor函数。白色表示绝对值大的正权重,黑色表示绝对值大的负权重,背景灰色对应于零权重。(左)控制坐标系的参数具有不同值的Gabor函数,这些参数包括:x0、y0和γ。在该网格中的每个Gabor函数被赋予和它在网格中的位置成比例的x0和y0的值,并且τ被选择为使得每个Gabor过滤器对从网格中心辐射出的方向非常敏感。对于其他两幅图,x0、y0和γ固定为零。(中)具有不同高斯比例参数βx和βy的Gabor函数。当我们从左到右通过网格时,Gabor函数被设置为增加宽度(减少βx);当我们从上到下通过网格时,Gabor函数被设置为增加高度(减少βy)。对于其他两幅图,β值固定为图像宽度的1.5倍。(右)具有不同的正弦参数f和φ的Gabor函数。当我们从上到下移动时,f增加;当我们从左到右移动时,φ增加。对于其他两幅图,φ固定为0,f固定为图像宽度的5倍

参数x0、y0和τ定义坐标系。我们平移和旋转x和y来得到x′和y′。具体地,简单细胞会响应以点(x0,y0)为中心的图像特征,并且当我们沿着从水平方向旋转τ弧度的线移动时,简单细胞将响应亮度的变化。

作为x′和y′的函数,函数w会响应当我们沿着x′移动时的亮度变化。它有两个重要的因子:一个是高斯函数,另一个是余弦函数。

高斯因子αexp(-βxx'2-βyy'2)可以被视为阈值项,用于保证简单细胞仅对接近x′和y′都为零点处的值响应,换句话说,接近细胞接受域的中心。尺度因子α调整简单细胞响应的总的量级,而βx和βy控制接受域消退的速度。

余弦因子cos(fx′+φ)控制简单细胞如何响应延x′轴的亮度改变。参数f控制余弦的频率,φ控制它的相位偏移。

合在一起,简单细胞的这个草图视图意味着,简单细胞对在特定位置处、特定方向上、特定空间频率的亮度进行响应。当图像中的光波与细胞的权重具有相同的相位时,简单细胞是最兴奋的。这种情况发生在当图像亮时,它的权重为正,而图像暗时,它的权重为负。当光波与权重完全异相时,简单细胞被抑制——当图像较暗时,它的权重为正;较亮时,它的权重为负。

复杂细胞的草图视图是它计算包含两个简单细胞响应的二维向量的L2范数:c(I)=。一个重要的特殊情况是当s1和s0具有除φ以外都相同的参数,并且φ被设置为使得s1与s0相位相差四分之一周期时。在这种情况下,s0和s1形成象限对(quadrature  pair)。当高斯重新加权的图像I(x,y)exp(-βxx'2-βyy2)包含具有频率f、在方向τ上、接近(x0,y0)的高振幅正弦波时,用先前方法定义的复杂细胞会响应,并且不管该波的相位偏移。换句话说,复杂细胞对于图像在方向τ上的微小变换或者翻转图像(用白色代替黑色,反之亦然)具有不变性。

神经科学和机器学习之间最显著的对应关系,是从视觉上比较机器学习模型学得的特征与使用V1得到的特征。Olshausen  and  Field(1996)说明,一个简单的无监督学习算法——稀疏编码,学习的特征具有与简单细胞类似的感受野。从那时起,我们发现,当应用于自然图像时,极其多样的统计学习算法学习类Gabor函数的特征。这包括大多数深度学习算法,它们在其第一层中学习这些特征。图9.19给出了一些例子。因为如此众多不同的学习算法学习边缘检测器,所以很难仅基于学习算法学得的特征,来断定哪一个特定的学习算法是“正确”的大脑模型(虽然,当应用于自然图像时,如果一个算法不能学得某种检测器时,它能够作为一种否定标志)。这些特征是自然图像的统计结构的重要部分,并且可以通过许多不同的统计建模方法来重新获得。读者可以参考(Hyvärinen  et  al.,2009)来获得自然图像统计领域的综述。

图9.19 许多机器学习算法在应用于自然图像时,会学习那些用来检测边缘或边缘的特定颜色的特征。这些特征检测器使人联想到已知存在于初级视觉皮层中的Gabor函数。(左)通过应用于小图像块的无监督学习算法(尖峰和平板稀疏编码)学得的权重。(右)由完全监督的卷积maxout网络的第一层学得的卷积核。相邻的一对过滤器驱动相同的maxout单元