对观察数据集进行描述假如现在给我们观察数据,其中是表征这个观察数据的特征和标签,其中的n nn表示特征维度,m表示样本数量。 如果我们尝试对这个观察数据进行模型描述,我们可以怎么描述呢?把这个问题记住,我们继续探讨。
我们要认识到,对观察数据进行描述,指的不光光是把所有数据一个字节一个字节地“记住”(memorize),而是尝试用一个概率分布去描述这个观察数据,比如数据的联合概率分布就可以很好地描述这个观察数据。为什么呢?比如说我们现在输入样本的特征是是一个5维向量,标签表征了其类别,那么概率
这个概率表示了样本和标签或者同时出现的概率,通过计算边缘概率分布,我们同样知道了特征的概率分布:
我们在这里不用考虑(1.1)这个概率是怎么计算出来的(实际上这个正是模型所做的事),我们只要知道通过这种手段可以去表达观察数据集,我们把这个分布称之为“模型”(不太准确,但是可以这样理解)。从这个分布中进行采样我们足以生成虚拟的样本(生成模型的领域),当然这都是后话了。同样的,知道了这个分布,也足以解决我们的样本分类问题:
好的,那么我们现在的问题就集中在如何才能得到(1.1)的概率分布了,也就是怎么建模了。我们终于要进入正题了,哈哈哈哈。
总的来说,我们可以通过两种方法进行建模,一种称之为参数化模型(parametric model),另一大类是非参数模型(non-parametric model)。注意,这里的“参数”和模型有没有可以学习的参数(比如神经网络中的weight)是没有关系的,非参数模型中可以有很多可学习的参数,但是不妨碍它为非参数模型。那么我们的问题就是怎么去理解这个“参数”了。
参数化模型对(1.1)的概率分布进行建模,有一种最为直接的方法就是先假设这个分布是服从某个特定分布的,比如高斯分布,泊松分布等等,当然这些分布中有些未知参数需要我们求得,而这些参数也正是决定了这个分布的形状的,比如高斯分布的均值和协方差决定了不同的高斯分布,如下图所示。
Fig 1. 不同均值和协方差的高斯分布。
我们也可以假设这个未知分布是多个已知分布的组合,比如多个高斯分布的组合,我们称之为混合高斯模型(Gaussian Mixture Model,GMM),模型公式[1]如:
其实就是K个不同均值和协方差的高斯分布的混合,并且对此进行了加权。
我们也可以假设我们的数据拟合曲线的形式,这个同样也是在隐式地对概率分布进行建模。经典的包括线性回归,逻辑斯蒂回归等,其函数形式都是如同:
同样的,整个函数的形式都是已经确定了的,无非就是一个直线/超平面 而已,但是其具体的的组合,决定了这个超平面的具体走向。
这个就是所谓的参数化模型,我们需要根据经验,观察,专家知识等对数据分布进行一定的假设后,然后对决定这个分布形状的参数集进行求解,这个求解通常根据现有的观察到的数据集进行,这个参数集是一个有限的集合。
我们可以推出一个结论就是,在参数化模型的框架下,无论我接下来观察到多少数量的数据,哪怕是无限多个数据,我模型的参数量都只有固定数量多个,那便是。也就是说,用有界的参数量(复杂度)对无界的(数据量)的数据分布进行了建模。
假如你的假设分布足够靠谱,甚至是完全正确的,那么当你通过一些观察样本,得到了参数集之后,之后的预测结果将之和这个参数集有关,后续的任何观察样本都和预测结果无关,表示为:
显然这样模型并不是很灵活,模型的可靠性强依赖于对数据的人工分析经验等。
非参数化模型非参数化模型,和参数化模型截然相反的是,对数据分布不进行任何的假设,只是依赖于观察数据,对其进行拟合。换句话说,其认为数据分布不能通过有限的参数集进行描述,但是可以通过无限维度的参数进行描述,无限维度也就意味着其本质就是一个函数 。
通常,实际中的模型是对这个无限维度参数集的近似,比如神经网络中的参数,虽然参数量通常很大,也有万有拟合理论保证其可以拟合函数,但是其只是对无限维度数据的近似而已。由于非参数化模型依赖于观察数据,因此参数集能捕获到的信息量随着观察数据集的数量增加而增加,这个使得模型更加灵活。
常见的模型归属常见的参数化模型和非参数化模型有:
需要进行解释的是,神经网络可以看成是高斯过程的近似[2],因此神经网络也是非参数化模型,k-means在聚类过程中假设数据是球型分布的(也就是欧式距离还管用,欧式距离可以表征样本之间的相似度的情况)。
这里指的参数到底是啥所以这里谈到的参数到底是个啥呢?我认为,这里的参数与否其实指的是是否用参数对模型的形状进行了显式地描述,如有则是参数化模型,没有,那么就是非参数化模型了。
Reference
[1]. https://blog.csdn.net/lin_limin/article/details/81048411
[2]. Radford M. Neal. Priors for infinite networks (tech. rep. no. crg-tr-94-1). University of Toronto, 1994a.