< 上一个 | 内容 | 下一个 >

4.3 总结与展望

图学习方法和强化学习方法构成了求解难解问题的重要研究方向。图学习方法的基本原理是基于难解问题实例与图的关系,依赖图中节点和边的互联关系为这些难解问题做出表征,借助于图的拓扑结构和节点特性,对难解问题进行深度理解,并运用图神经网络等工具对图进行深入的剖析和推理,以此对难解问题进行求解。强化学习方法通过智能体(Agent)在其环境中的探索行为求解难解问题。在这个求解过程中,智能体通过连续的互动和反馈,学习如何采取最优行动策略实现特定的优化目标。然而,难解问题的机器学习方法仍然存在着如下挑战。

1)泛化能力差:诸多图学习方法在训练数据上性能表现良好,然而大规模实例和实际应用实例上的性能表现不佳。这主要是由于模型过拟合或者对训练数据的分布假设过于严格造成的。这种泛化能力差的问题在复杂、高维度和稀疏的数据环境中尤为严重。尽管强化学习方法已有在许多组合优化问题上的表现不错,但将学习到的策略有效的泛化到其他问题或数据分布上仍然有难度。

2)全局结构无法获取:在利用机器学习方法处理结构化图问题时,图问题全局结构的获取往往对学习的性能有着重要的影响。由于图学习方法的局限性,很多时候模型只能获取到局部的、片段的信息,而无法获取全局的、整体结构信息。对于强化学习方法,尽管可


以通过集束搜索、局部搜索和采样策略等手段提升全局结构的特征获取能力,但在许多研究中,直接由深度神经网络模型输出的解仍然效果不佳。

3)分布外泛化(Out-of-distributionOOD):各领域中的难解问题经常出现训练分布和测试分布不一致的情况,也就是所谓的 OOD 问题。这种情况下,图学习方法可能在训练分布上表现良好,但在测试分布(尤其是与训练分布迥异的分布)上表现很差。由于不同问题可能有着各自独特的动态特性和约束条件,使得某一特定问题或数据分布上表现良好的策略并不能直接迁移到另一问题或数据分布上。对于强化学习方法,如何处理各类应用问题中的不确定性和动态性从而克服 OOD 问题也是一个主要挑战。

4)约束问题求解困难:许多难解问题都涉及到一些严格或者复杂的约束。这些约束使得问题的解需要满足特定性质,增加了解的搜索难度,现有的图学习方法和强化学习方法在一定程度上很难有效的处理这些约束。

5)可解释性差:基于图学习和强化学习求解难解问题的方法大多结合了深度学习方法,而深度学习方法往往因其复杂的模型结构和抽象的特征表达,导致内部决策机制难以解释,被称为黑箱问题。这种可解释性不足限制了模型在各领域难解问题求解中的应用。

事实上,上述各个方面也是诸多机器学习方法共同面临的挑战。人们针对此方面也进行了系列研究,在机器学习方法中引入自监督学习和主动学习等强泛化模型可能有助于克服机器学习泛化性能差的缺陷。自监督学习是一种训练模型的方式,它通过使用数据中已有的标签信息来进行学习,而无需人工进行标注。自监督学习已经在图像、语音和自然语言处理领域得到了很好的应用,并且有助于提高模型的泛化能力。主动学习是一种模型自主选择最需要标注的数据样本进行学习,这样可以更高效的使用有限的标注资源,从而提高模型的泛化


能力。诸多难解问题本身具有很好的组合结构,并且这些结构往往具有全局属性,如何更好的挖掘难解问题的结构属性,设计融合问题结构属性的学习方法是克服难解问题机器学习方法泛化能力差的一个重要方向。另外,目前诸多基于机器学习的难解问题求解方法往往在较小规模的训练数据上进行训练,难以有效学到影响问题求解的全局结构和复杂结构,进而出现泛化能力差的缺陷。因此,如何对较大规模训练数据进行高效学习也是消除难解问题机器学习方法泛化能力差的一个重要手段。

针对难解问题机器学习求解方法存在全局结构无法获取和可解释性差等问题,在机器学习方法中引入结构熵和编码树机制[100-102]可提高机器学习方法获取难解问题全局结构的能力,并且增强机器学习算法对难解问题求解的可解释性。近年来,基于结构熵和编码树的机器学习方法已经引起了广泛的关注。结构熵是衡量图或网络结构中所包含信息量的度量标准。给定一个图 G,图的一维结构熵被定义为图中每个顶点的熵之和,其中顶点的熵是其度数和图的体积的函数,图的体积是图中所有顶点的度数之和。图的 k 维结构熵被定义为具有最多 k 层的图的所有可能编码树的最小熵。编码树是一种层次结构,将加权无向图的顶点集划分为子集。编码树的熵是连接节点内部顶点与节点外部顶点所有边权重之和与节点体积的函数。基于结构熵的编码树是一种模型的层普抽象,是离散系统中的微分算子,刻画了数学的层次抽象结构,可以用于从信息系统中对信息进行编码和解码,并可将原始的图结构进行抽象和简化,捕获难解问题的全局结构。编码树方法还能够提供对问题求解过程的解释和可解释性。通过对编码树的分析和理解,可以获得问题实例的直觉推理和层谱抽象,以便可以更好的理解问题结构和特征,并为问题求解过程提供推理解释。因此,基于结构熵和编码树的方法为机器学习方法获取难解问题的全局结构提供了理论和技术支撑,有助于机器学习方法学到问题实例的全局


结构,进而有助于提高学习方法的泛化性能。另外,基于结构熵和编码树的方法也为难解问题机器学习求解方法的可解释性提供了新的思路。

人们提出了诸多方法处理机器学习方法存在的分布外现象。比如,在机器学习方法中引入对抗性训练、贝叶斯深度学习可能有助于增强 机器学习模型的鲁棒性。对抗性训练方法利用生成对抗性训练(GANs)生成更极端、偏离训练数据分布的样本,以提高模型对未知分布数据 的鲁棒性。贝叶斯神经网络和贝叶斯卷积神经网络等引入权重不确定 性,能量化模型预测结果的不确定性,帮助提高模型对 OOD 数据的 鉴别力。诸多难解问题的求解效率和准确度与问题实例的分布和属性 具有密切的关联关系。因此,对于难解问题的机器学习求解方法,如 何根据问题的结构属性和求解目标生成多样化的训练数据对克服分 布外现象具有重要的意义。

诸多难解问题都存在各类约束,影响了问题求解的效率与准确率。难解问题机器学习求解方法可在求解过程中引入约束优化、生成模型、约束神经网络等方法,提升机器学习方法对于复杂约束难解问题的求 解能力。约束优化方法可以在目标函数优化过程中引入包括拉格朗日 乘数法、KKT 条件等方法,寻找满足一定约束条件的最优解。生成模 型旨在利用条件生成对抗网络(CGANs)和变分自编码器(VAEs) 等方法生成满足某些条件(约束)的样本以辅助训练过程。因此,对 于带约束的难解问题,如何高质量的将约束条件融入到机器学习模型 中是求解约束难解问题的关键。另外,对于带约束的难解问题,约束 往往限定了问题实例的组合结构属性。因此,充分挖掘问题约束下的 实例结构属性有助于机器学习方法对问题结构属性的学习,可提高问 题求解的效率和准确率。