论文部分内容阅读
该文首先概述数据驱动的机器学习模型(DDM)的有关理论研究成果。在此基础上,论证了数据-知识融合的学习模型(KDM)在问题的局部学习空间和全域学习空间的泛化能力。结果表明,在有限样本和一定的假设前提下,KDM在局部学习空间的泛化误差以概率1收敛于某泛化误差界;在全域学习空间的泛化误差依概率1-收敛于某泛化误差界,该界比DDM的泛化误差上界更紧。因此,与单纯DDM相比,KDM的学习过程更加高效、可靠,可更好地应对实际问题中的少样本学习问题。