网络解构:量化深度视觉表征的可解释性

本课程主要讨论一种解释CNN内部工作原理的方法,又称打开神经神经网络的黑箱,其主要内容是描述在卷积神经网络中可以表征某一物体的特别的“祖母神经元”。(课时:38 分钟)

讲师:   辛茹月

课程背景

熟悉CNN的都知道,在训练的过程中,CNN中不同的Feature Map经常能学习到不同的具象元素,例如某个Feature Map能识别到眼睛,某个能识别到花朵等等。如我们所知,不同的Feature Map是由不同的神经元控制的。从这个角度来看,在深度神经网络中,某种事物的表征,是由某个特定的神经元决定的。

无独有偶,我们人脑的神经元也有类似的机理,有时候脑中的某个神经元也表现为对某个特定事物敏感,这就是生物医学领域的“祖母神经元理论”。然而对于这个理论,很多学者并不认可,在他们看来,对特定事物产生敏感的并不是单个神经元,而是一个神经元集簇!

巧合的是,深度学习领域也有许多学者认为:在深度神经网络中,能够表达特定事物的并不是单个神经元,而是一个向量空间!

此言一出,MIT的David BAU等大牛们便不愿意了,因为他们早在几年前就发表过文献,论证过CNN中单个神经元对特定事物的特征表达。因此,为了维护自己的理论,他们研究了一种在深度神经网络中可以自动量化视觉表征可解释性的方法,力图通过自动化的方式探索深度神经网络黑箱,证明自己的观点。

对于神秘的深度神经网络黑箱,大家肯定早有耳闻了,这玩意一旦被训练完成,那即使是设计者也不能深刻了解其有效工作的原理。那MIT的David BAU团队究竟采用了什么方法来自动化评估神经网络的可解释性?评估的指标又是什么?最后的评估结果怎么样?

上面的问题正是本节课程所探讨的主要内容,如果你对这些问题感兴趣,那么请快快点击课程,打开这深度神经网络的“黑箱”!

课程目的

学完本课程,你能做到

  • 了解如何采用算法自动定量解释深度神经网络中神经元的表征

课程详情

本讲从以下方面探讨了深度神经网络的可解释性:

  • 深度神经网络中存在的一些神经元可以识别某些可解释性结构

  • 网络解构构架定义

  • 可解释性定量公式

  • 人类解构神经网络与算法解构神经网络的效果对比

  • 神经元可解释性的证明实验


讲师介绍
辛茹月

北京师范大学系统科学学院硕士研究生 曾参与《走近2050》一书的编撰 研究方向: 复杂网络分类器、复杂网络的深度学习、GCN等