[导读]最大边界学习(Max-margin learning)在学习判别模型,例如单变量输出的支持向量机(univariate-output support vector machines)和多变量输出的最大边界Markov网络(或结构化的支持向量机)时非常有效。而深度生成式模型(Deep generative models,DGMs)在学习复杂数据的多层表示和通过泛化能力对输入数据作推断时比较有效。然而,DGMs的不足之处在于无法运用DGMs的判别能力做出精准的预测。本文通过探究在保持泛化能力的同时如何运用最大边界原理(Max-margin principle)的强判别能力来提高DGMs在监督学习和半监督学习时的预测能力,提出了最大边界深度生成式模型(mmDGMs)和它的一个类条件变体(mmDCGMs),并针对不同设置下的分段线性目标开发出一种高效的双重随机次梯度下降算法(Doubly stochastic sub-gradient algorithm)。在多个不同的数据集上的实证结果显示:最大边界学习能在保持泛化能力的条件下显著提高DGMs的预测能力;在监督学习中,当使用卷积神经网络作为生成和识别模型时,mmDGMs与最佳的完全判别网络性能相差无几;在半监督学习中,mmDGMs可以做出有效的推断,并且在多个标杆问题中可以得到非常优秀的分类结果。
关键词:
Deep Generative Models, Max-margin Learning, Variational Inference, Supervised and Semi-Supervised Learning. 深度生成式模型、最大边界学习、变分推断、监督和半监督学习
作者简介: