Nature子刊封面:将拓扑应用于机器学习,提升神经网络可解释性


  新智元4天前我要分享

  

  新智元报道

  编辑:肖琴、鹏飞

  【新智元导读】意大利数学家团队最近在Nature Machine Intelligence发文提出,25年前提出的拓扑数据分析理论(TDA)能使机器学习算法更快进行图像识别,其认为当前的神经网络都是以数字矩阵理论进行训练的,往往需要海量训练数据,无法提取共性特征,而拓扑数据分析可以教神经网络从形状或局部特征上认识共性,大大缩短培训时间,提高图像识别等处理能力。

  葡萄牙里斯本,一支来自意大利的数学家团队,和几位Champalimaud未知中心(CCU)的神经科学家,正在兴奋地讨论着刚刚被发表在Nature Machine Intelligence杂志上的研究成果。

  该结果证明了,人造视觉机器可以通过使用25年前开发的数学理论进行学习,更快地识别复杂图像。顺便一提,该理论正是由这些数学家们提出的。

  聪明汉斯的故事

  虽然神经网络在模式识别方面越来越成功,但事实是没有人真正知道在学习任务时内部发生了什么,基本上都是黑盒子。我们无法确定机器实际从初始数据中提取了哪些特征、提取了多少,那么也就无法确定这些特征里,有多少是对人脸识别真正有意义的。

  这很像上世纪初在德国的一匹名为聪明的汉斯(Clever Hans)的马。它的主人声称,这匹马非常的聪明,可以用马蹄读、拼和计算数字,用前蹄踩出正确答案。甚至在1911年还经过专家组的鉴定,认为认为汉斯和它的主人没有作弊。

  然而实际上,汉斯只不过是经过其主人的精心训练,在每次表演时候,会收到主人看似毫无关联、不易别人察觉的暗示。

  论文第一作者、CCU的系统神经科学实验室的Mattia Bergomi解释称,这与机器学习是一样的。研究人员无法控制机器的工作方式,或者在训练过程中学到的东西。

  而解决上述问题,正是他们团队研究成果的核心方向。

  用几何形状来推测机器学习的套路

  一种被称为拓扑数据分析(TDA)的抽象数学理论是关键。

  TDA发展的第一步,是由意大利数学家Patrizio Frosini在1992年开拓的。他是此次新研究论文的合著者,目前在博洛尼亚大学。

  “拓扑是最纯粹的数学形式之一”Bergomi说。“长久以来人们一直认为拓扑结构不适用于任何具体的东西,直到TDA在过去几年变得众所周知。”

  现在问题是,当前的神经网络不擅长拓扑。例如,机器不识别旋转的对象。对于他们来说,每次旋转时,相同的对象看起来都会完全不同。为了能让机器是被旋转后的物体还是原来那个物体,唯一的方案是让网络尽可能多的记住每次旋转后的状态。

  试想,如果将TDA视为一种数学工具,用于在任何可以表示为一组庞大数字的复杂对象中找到有意义的内部结构(拓扑特征)。这可以通过某些精心挑选的“镜头”,也可以通过过滤器查看数据来实现。

  TDA使得教导神经网络识别面部成为可能,而不必将其呈现在面部可能在空间中呈现的每个不同取向。现在,即使在不同的旋转位置,机器也会将所有旋转后的面部识别为同一个面部。

  在他们的研究中,科学家们通过教授神经网络来识别手写数字来测试结合机器学习和TDA的好处。结果不言自明。

  由于这些网络是比较弱的拓扑学家,并且手写可能非常模糊,因此两个不同的手写数字可能无法与当前机器区分开来;相反,它们可能将同一个手写数字的两个实例识别为不同的数字。

  为了注入有关数字的知识,该团队构建了一组他们认为有意义的先验功能。换句话说,一组“镜头”,网络将通过它们看到数字,然后迫使机器选择这些镜头去看数字。

  TDA增强神经网络会学区如何所有的数字5和数字7,无论写得多么糟糕都能区分出来。

  Bergomi说:“我们在研究中数学上描述的是如何强制执行某些对称性,这提供了一种策略来构建机器学习智能体,这些智能体能够通过利用作为约束注入的知识从少数例子中学习显著特征”

  这是否意味着模仿大脑的学习机器的内部运作在未来会变得更加透明,从而能够对大脑本身的运作方式有新的见解?

  无论如何,这是Bergomi的目标之一。“人工智能的可解释,对于其与生物智能的相互作用和整合是必要的,”他说。

  他目前正在与他的同事Pietro Vertechi合作开发一种新型神经网络架构,该架构将允许人们迅速将高级知识注入这些网络,以控制和加速他们的训练。

  参考链接:

  收藏举报投诉

  

  新智元报道

  编辑:肖琴、鹏飞

  【新智元导读】意大利数学家团队最近在Nature Machine Intelligence发文提出,25年前提出的拓扑数据分析理论(TDA)能使机器学习算法更快进行图像识别,其认为当前的神经网络都是以数字矩阵理论进行训练的,往往需要海量训练数据,无法提取共性特征,而拓扑数据分析可以教神经网络从形状或局部特征上认识共性,大大缩短培训时间,提高图像识别等处理能力。

  葡萄牙里斯本,一支来自意大利的数学家团队,和几位Champalimaud未知中心(CCU)的神经科学家,正在兴奋地讨论着刚刚被发表在Nature Machine Intelligence杂志上的研究成果。

  该结果证明了,人造视觉机器可以通过使用25年前开发的数学理论进行学习,更快地识别复杂图像。顺便一提,该理论正是由这些数学家们提出的。

  聪明汉斯的故事

  虽然神经网络在模式识别方面越来越成功,但事实是没有人真正知道在学习任务时内部发生了什么,基本上都是黑盒子。我们无法确定机器实际从初始数据中提取了哪些特征、提取了多少,那么也就无法确定这些特征里,有多少是对人脸识别真正有意义的。

  这很像上世纪初在德国的一匹名为聪明的汉斯(Clever Hans)的马。它的主人声称,这匹马非常的聪明,可以用马蹄读、拼和计算数字,用前蹄踩出正确答案。甚至在1911年还经过专家组的鉴定,认为认为汉斯和它的主人没有作弊。

  然而实际上,汉斯只不过是经过其主人的精心训练,在每次表演时候,会收到主人看似毫无关联、不易别人察觉的暗示。

  论文第一作者、CCU的系统神经科学实验室的Mattia Bergomi解释称,这与机器学习是一样的。研究人员无法控制机器的工作方式,或者在训练过程中学到的东西。

  而解决上述问题,正是他们团队研究成果的核心方向。

  用几何形状来推测机器学习的套路

  一种被称为拓扑数据分析(TDA)的抽象数学理论是关键。

  TDA发展的第一步,是由意大利数学家Patrizio Frosini在1992年开拓的。他是此次新研究论文的合著者,目前在博洛尼亚大学。

  “拓扑是最纯粹的数学形式之一”Bergomi说。“长久以来人们一直认为拓扑结构不适用于任何具体的东西,直到TDA在过去几年变得众所周知。”

  现在问题是,当前的神经网络不擅长拓扑。例如,机器不识别旋转的对象。对于他们来说,每次旋转时,相同的对象看起来都会完全不同。为了能让机器是被旋转后的物体还是原来那个物体,唯一的方案是让网络尽可能多的记住每次旋转后的状态。

  试想,如果将TDA视为一种数学工具,用于在任何可以表示为一组庞大数字的复杂对象中找到有意义的内部结构(拓扑特征)。这可以通过某些精心挑选的“镜头”,也可以通过过滤器查看数据来实现。

  TDA使得教导神经网络识别面部成为可能,而不必将其呈现在面部可能在空间中呈现的每个不同取向。现在,即使在不同的旋转位置,机器也会将所有旋转后的面部识别为同一个面部。

  在他们的研究中,科学家们通过教授神经网络来识别手写数字来测试结合机器学习和TDA的好处。结果不言自明。

  由于这些网络是比较弱的拓扑学家,并且手写可能非常模糊,因此两个不同的手写数字可能无法与当前机器区分开来;相反,它们可能将同一个手写数字的两个实例识别为不同的数字。

  为了注入有关数字的知识,该团队构建了一组他们认为有意义的先验功能。换句话说,一组“镜头”,网络将通过它们看到数字,然后迫使机器选择这些镜头去看数字。

  TDA增强神经网络会学区如何所有的数字5和数字7,无论写得多么糟糕都能区分出来。

  Bergomi说:“我们在研究中数学上描述的是如何强制执行某些对称性,这提供了一种策略来构建机器学习智能体,这些智能体能够通过利用作为约束注入的知识从少数例子中学习显著特征”

  这是否意味着模仿大脑的学习机器的内部运作在未来会变得更加透明,从而能够对大脑本身的运作方式有新的见解?

  无论如何,这是Bergomi的目标之一。“人工智能的可解释,对于其与生物智能的相互作用和整合是必要的,”他说。

  他目前正在与他的同事Pietro Vertechi合作开发一种新型神经网络架构,该架构将允许人们迅速将高级知识注入这些网络,以控制和加速他们的训练。

  参考链接: