网络解构:量化深度视觉表征的可解释性

CNN的Feature Map可以提取图片中物体的特征,从而完成某些“物体检测”的功能。那么实现这种功能的是单个神经元?还是一个神经元集群?想要探索这个秘密,那就需要打开深度神经网络的黑箱……

讲师:   辛茹月

玩弄数据的好工具 Numpy & Pandas

课程背景:

熟悉CNN的都知道,在训练的过程中,CNN中不同的Feature Map经常能学习到不同的具象元素,例如某个Feature Map能识别到眼睛,某个能识别到花朵等等。

如我们所知,不同的Feature Map是由不同的神经元控制的。从这个角度来看,在深度神经网络中,某种事物的表征,是由某个特定的神经元决定的。

无独有偶,我们人脑的神经元也有类似的机理,有时候脑中的某个神经元也表现为对某个特定事物敏感,这就是生物医学领域的“祖母神经元理论”。然而对于这个理论,很多学者并不认可,在他们看来,对特定事物产生敏感的并不是单个神经元,而是一个神经元集簇!

巧合的是,深度学习领域也有许多学者认为:在深度神经网络中,能够表达特定事物的并不是单个神经元,而是一个向量空间!

此言一出,MIT的David BAU等大牛们便不愿意了,因为他们早在几年前就发表过文献,论证过CNN中单个神经元对特定事物的特征表达。因此,为了维护自己的理论,他们研究了一种在深度神经网络中可以自动量化视觉表征可解释性的方法,力图通过自动化的方式探索深度神经网络黑箱,证明自己的观点。

对于神秘的深度神经网络黑箱,大家肯定早有耳闻了,这玩意一旦被训练完成,那即使是设计者也不能深刻了解其有效工作的原理。那MIT的David BAU团队究竟采用了什么方法来自动化评估神经网络的可解释性?评估的指标又是什么?最后的评估结果怎么样?

上面的问题正是本节课程所探讨的主要内容,如果你对这些问题感兴趣,那么请快快点击课程,打开这深度神经网络的“黑箱”!



讲师介绍
辛茹月

北京师范大学系统科学学院硕士研究生 曾参与《走近2050》一书的编撰 研究方向: 复杂网络分类器、复杂网络的深度学习、GCN等