< 上一个 | 内容 | 下一个 >

2.5.2 神经符号系统研究现状

神经符号系统研究的相关工作归结为三大类:神经辅助符号 (learning for reasoning),符号辅助神经(reasoning for learning)和神经-符号(learning-reasoning)。第一类方法以符号系统为主,神经系统为辅。它的目的是利用神经网络的计算速度快的优势去辅助用符号系统去搜索解,使得推理更加高效[160] [161] [162] [163] [164] [165] [166] 。例如在

基于统计关系学习(Statistical Relational Learning,简称 SRL)[167] 的方法中用神经网络来近似搜索算法,实现模型的高效推理。第二类以神经系统为主,符号系统为辅。它的目的是整合符号系统(符号知识包括逻辑规则和知识图谱)的优势到神经系统学习的过程中,提升神经系统的学习性能[168] [169] [170] [171] [172] 。如正则化(Regularization)方法将符号作为神经网络的约束项,指导模型的学习。第三类方法,神经系统与符号系统以平等的方式参与到模型中,两者以一种互利共存的方式充分发挥其优势[173] [174] [175] [176]

神经辅助符号。Qu Zhang 等人分别提出了概率逻辑神经网络 (probabilistic Logic Neural Network, 简 称 pLogicNet)[177] ExpressGNN[178] 。这两个模型的主要思想都是将知识图谱中的推理问题(三元组补全问题)建模为概率图中隐变量的推理问题,都采用变分 EM 方法和神经网络相结合的思路进行近似推理。以上方法手工设计概率图模型的势函数,但仅利用专家构建的规则不能完全捕获隐含在数据中的知识,为此研究者们开始探索从数据中自动捕获规则的方法。Marra 等人[179] [180] 扩展了马尔可夫逻辑网(Markov logic network, 简称 MLN)的学习模型,设计了一个通用的神经网络从原始数据中自动学习规则和 MLN 的势函数。除了基于 MLN 自动学习规则的方法以外,一些学者在传统 ILP 方法的基础上,结合神经网络与逻辑提出了可微的 ILP [161] [181] [182] [183] [184] Yang 等人[185] 出了神经逻辑归纳学习方法(Neural Logic Inductive Learning, 简称 NLIL),可以推理复杂的规则信息(如树型规则和合取式规则等),通过学习到的 FOL 解释隐含在数据中的模式,应用于目标检测任务。

符号辅助神经。Diligenti Xu 等人[186] [187] 分别提出语义正则化(SBR)和语义损失(SL)方法,将逻辑知识作为假设空间的约束,如果违背了相应的逻辑规范或逻辑理论,模型将受到惩罚。SBR 是一种从约束中学习的方法,该方法融合了经典机器学习(具有连续特征表


示学习能力)和统计关系学习(具有高级语义知识推理能力),以解决多任务优化和分类等问题。SL 方法将命题逻辑的自动推理技术与现有的深度学习架构相结合,将神经网络的输出喂给损失函数,作为可学习神经网络的约束,通过训练算法将命题逻辑编码为损失函数的一部分,提高神经网络学习能力。该方法使用目标原子的边缘概率定义正则项,并用算术电路评估模型的有效性。Hu 等人[188] 提出了一个通用框架,称为利用逻辑规则辅助深度学习的方法(Harnessing Deep Neural Networks with Logic Rules,简称 HDNN)。其中,神经网络模型包括 CNN DNN 等。该方法借助知识蒸馏的思想,通过一个大规模且已训练好的网络去引导小规模网络的学习,设计了教师网络和学生网络。教师网络能够学习标签数据和逻辑规则(无标签数据)中的信息,学生网络近似教师网络,使逻辑规则编码的结构化信息可以约束学生网络的学习。Xie 等人[189] 将命题逻辑融入到关系检测模型中,提出了具有语义正则化的逻辑嵌入网络(Logic Embedding Network with Semantic Regularization,简称 LENSR),以提升深度模型的关系检测能力。Luo 等人[190] 提出基于上下文的零次学习方法(Context- Aware Zero-Shot Recognition,简称 CA-ZSL),解决零次目标检测问题。它基于深度学习和条件随机场建立模型,利用类别之间的语义关系图谱辅助识别未知类别的目标。Li 等人[191] 提出了大规模的小样本学习方法(Large-scale few shot learning,简称 LSFSL),解决小样本图像识别任务。Chen 等人[192] 发现迁移类间的相关性信息可以帮助学习新概念,采用知识图谱建模已知类与未知类之间的相关性,结合神经网络提出了知识图谱迁移网络模型 (Knowledge Graph Transfer Network,简称 KGTN),解决小样本分类问题。

神经-符号。Robin 等人[160] 基于 ProbLog 提出了将概率、逻辑与深度学习有机结合的模型—深度概率逻辑(Deep probabilistic logic,简称 DeepProbLog)。该模型首次提出了将神经网络与概率逻辑以某种


方式结合的通用框架,它兼具两者的优点,有更强的表达能力,并且可以基于样本进行端到端的训练。DeepProbLog 是一种概率程序设计语言,以“神经”谓词(neural predicates)的方式与深度学习结合,也就是输入谓词中的实体对(该文中的数据都是二元谓词)。神经网络的分类器预测实体对属于所有谓词的概率,然后将预测的结果用于概率程序的推理。不同于 DeepProbLogZhou 等人[193] 基于反绎推理提出了反绎学习(abductive learning,简称 ABL)。ABL 利用机器学习的归纳和逻辑程序的反绎,将两者结合到一个统一的框架中,进行端到端的学习。该方法用逻辑程序语言表示一阶谓词逻辑知识并且建模复杂的推理任务。其中,逻辑程序语言中的部分事实由机器学习提供。基于 ABL 的思想,Tian 等人[194] 提出了一个弱监督的神经符号学习模型(WS-NeSyL)去解决具有逻辑推理的感知任务。该方法将机器学习部分设计为一个编码器-解码器框架,其中包含一个编码器和两个解码器。编码器将输入信息映射为一个向量后,感知解码器会将向量解码为伪标签,认知解码器会基于伪标签采样出来的逻辑规则进行推理。整个过程是一个端到端的迭代优化,直到模型收敛。吉林大学杨博团队[195] 提出了一个双层概率图推理框架(BPGR),该框架利用统计关系将神经网络和符号推理整合起来。其中,概率图模型的上层节点是神经网络的预测结果,下层节点是逻辑规则中的闭原子。整个模型进行端到端的迭代训练,直到神经网络的预测结果不再变化。 BPGR 用神经网络提升了概率推断的效率,用符号推理提升了神经网络的预测性能。