机器学习面试问题总结

发布时间:2022-07-06 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了机器学习面试问题总结脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

判别式模型和生成式模型的区别?

判别方法:由数据直接学习决策函数 Y = f(X),或者由条件分布概率 P(Y|X)作为预测模型,即判别模型。生成方法:由数据学习联合概率密度分布函数 P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型。由生成模型可以得到判别模型,但由判别模型得不到生成模型。常见的判别模型有:K近邻、SVM、决策树、感知机、线性判别分析(LDA)、线性回归、传统的神经网络、逻辑斯蒂回归、boosting、条件随机场常见的生成模型有:朴素贝叶斯、隐马尔可夫模型、高斯混合模型、文档主题生成模型(LDA)、限制玻尔兹曼机

什么时候使用归一化/标准化

如果对输出结果范围要求,用归一化;如果数据较为稳定,不存在极端的最大最小值,用归一化;如果存在噪音和异常值,可以使用标准化处理。归一化和标准化的而区别在于,归一化是统一到一定的区间(由极值决定),而标准化和整体样本由很大关系。

极大似然估计和最小二乘法区别

对于最小二乘法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小。而对于最大似然法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大。在最大似然法中,通过选择参数,使已知数据在某种意义下最有可能出现,而某种意义通常指似然函数最大,而似然函数又往往指数据的概率分布函数。与最小二乘法不同的是,最大似然法需要已知这个概率分布函数,这在实践中是很困难的。一般假设其满足正态分布函数的特性,在这种情况下,最大似然估计和最小二乘估计相同。最小二乘法以估计值与观测值的差的平方和作为损失函数,极大似然法则是以最大化目标值的似然概率函数为目标函数,从概率统计的角度处理线性回归并在似然概率函数为高斯函数的假设下同最小二乘建立了的联系。

什么是偏差和方差?

偏差:描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据方差:描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,数据的分布越分散Bias:误差,对象是单个模型,期望输出与真实标记的差别(可以解释为描述了模型对本训练集的拟合程度)VARiance:方差,对象是多个模型(这里更好的解释是换同样规模的训练集,模型的拟合程度怎么样;也可以说方差是刻画数据扰动对模型的影响,描述的是训练结果的分散程度)从同一个数据集中,用科学的采样方法得到几个不同的子训练集,用这些训练集训练得到的模型往往并不相同。参数w变大,会使模型变得更复杂(即过拟合情况),拟合的更好,故偏差会变小;而对于数据的扰动会更加敏感,所以方差会变大。

L2与L1的区别?为什么能能止过拟合?

L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。在所有特征中只有少数特征起重要作用的情况下,选择Lasso比较合适,因为它能自动选择特征。而如果所有特征中,大部分特征都能起作用,而且起的作用很平均,那么使用Ridge也许更合适。

更小的权值ww,从某种意义上说,表示网络的复杂度更低,对数据的拟合刚刚好(这个法则也叫做奥卡姆剃刀),过拟合的时候,拟合函数的系数往往非常大,为什么?如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况。

另外,L2与L1的区别在于,L1正则是拉普拉斯先验,而L2正则则是高斯先验。它们都是服从均值为0,协方差为1λ1λ。当λ=0时,即没有先验)没有正则项,则相当于先验分布具有无穷大的协方差,那么这个先验约束则会非常弱,模型为了拟合所有的训练集数据, 参数w可以变得任意大从而使得模型不稳定,即方差大而偏差小。λ越大,标明先验分布协方差越小,偏差越大,模型越稳定。即,加入正则项是在偏差bias与方差variance之间做平衡tradeoff。

为什么L1正则是拉普拉斯先验,而L2正则则是高斯先验?

先看下最原始的线性回归:假设y=Xw+ϵy=Xw+ϵ,ϵϵ服从高斯分布,则有:

 

p(ϵ(i))=12π−−√σexp((ϵ(i))22σ2)p(ϵ(i))=12πσexp⁡(−(ϵ(i))22σ2)

 

得:

 

p(y(i)|x(i);θ)=12π−−√σexp((y(i)wTx(i))22σ2)p(y(i)|x(i);θ)=12πσexp⁡(−(y(i)−wTx(i))22σ2)

 

由最大似然估计(MLE):

 

L(w)=p(y^|X;w)=i=1mp(y(i)|x(i);θ)=i=1m12π−−√σexp((y(i)wTx(i))22σ2)L(w)=p(y^|X;w)=∏i=1mp(y(i)|x(i);θ)=∏i=1m12πσexp⁡(−(y(i)−wTx(i))22σ2)

 

取对数:

 

l(w)=LOGL(w)=logi=1m12π−−√σexp((y(i)wTx(i))22σ2)=i=1mlog12π−−√σexp((y(i)wTx(i))22σ2)=mlog12π−−√σ1σ212i=1m(y(i)wTx(i))2l(w)=log⁡L(w)=log⁡∏i=1m12πσexp⁡(−(y(i)−wTx(i))22σ2)=∑i=1mlog⁡12πσexp⁡(−(y(i)−wTx(i))22σ2)=mlog⁡12πσ−1σ2⋅12∑i=1m(y(i)−wTx(i))2

 

即:

 

wMLE=argminwi=1m(y(i)wTx(i))2wMLE=argminw∑i=1m(y(i)−wTx(i))2

 

这就导出了我们原始的 least-squares 损失函数,但这是在我们对参数 ww 没有加入任何先验分布的情况下。在数据维度很高的情况下,我们的模型参数很多,模型复杂度高,容易发生过拟合。这个时候,我们可以对参数 ww 引入先验分布,降低模型复杂度。

我们对参数ww 引入协方差为αα的零均值高斯先验。

 

L(w)=p(y^|X;w)p(w)=i=1mp(y(i)|x(i);θ)p(w)=i=1m12π−−√σexp((y(i)wTx(i))22σ2)j=1n12πα−−−√exp((w(j))22α)=i=1m12π−−√σexp((y(i)wTx(i))22σ2)12πα−−−√exp(wTw2α)L(w)=p(y^|X;w)p(w)=∏i=1mp(y(i)|x(i);θ)p(w)=∏i=1m12πσexp⁡(−(y(i)−wTx(i))22σ2)∏j=1n12παexp⁡(−(w(j))22α)=∏i=1m12πσexp⁡(−(y(i)−wTx(i))22σ2)12παexp⁡(−wTw2α)

 

取对数:

 

l(w)=logL(w)=mlog12π−−√σ+nlog12πα−−−√1σ212i=1m(y(i)wTx(i))21α12wTwwMAPGussian=argminw(1σ212i=1m(y(i)wTx(i))2+1α12wTw)l(w)=logL(w)=mlog⁡12πσ+nlog⁡12πα−1σ2⋅12∑i=1m(y(i)−wTx(i))2−1α⋅12wTw⇒wMAPGussian=argminw(1σ2⋅12∑i=1m(y(i)−wTx(i))2+1α⋅12wTw)

 

等价于:

 

JR(w)=1n||ywTX||2+λ||w||2JR(w)=1n||y−wTX||2+λ||w||2

 

即,对参数引入 高斯先验 等价于L2正则化那么拉普拉斯分布(Laplace distribution)呢?拉普拉斯分布为:

 

f(x|μ,b)=12bexp(|xμ|b)f(x|μ,b)=12bexp⁡(−|x−μ|b)

 

![拉普拉斯分布][base64str1]

重复之前的推导过程我们很容易得到:

 

wMAPLoplace=argminw(1σ212i=1m(y(i)wTx(i))2+1b212||w||1)wMAPLoplace=argminw(1σ2⋅12∑i=1m(y(i)−wTx(i))2+1b2⋅12||w||1)

 

该问题通常被称为 LASSO (least absolute shrinkage and selection operator) 。LASSO 仍然是一个凸优化问题,不具有解析解。它的优良性质是能产生稀疏性,导致ww中许多项变成零。即,对参数引入 拉普拉斯先验 等价于L1正则化。

Lasso回归如何求解?

Lasso回归有时也叫做线性回归的L1正则化,和Ridge回归的主要区别就是在正则化项,Ridge回归用的是L2正则化,而Lasso回归用的是L1正则化。由于L1范数用的是绝对值之和,在零点处不可求导,所以使用非梯度下降法进行求解,如 坐标轴下降法(coordinate descent)和最小角回归法( Least Angle Regression, LARS)。          

  • 坐标轴下降法坐标下降算法每次选择一个维度进行参数更新,维度的选择可以是随机的或者是按顺序。当一轮更新结束后,更新步长的最大值少于预设阈值时,终止迭代。坐标下降优化方法是一种非梯度优化算法。在整个过程中依次循环使用不同的坐标方向进行迭代,一个周期的一维搜索迭代过程相当于一个梯度迭代。坐标轴下降法的数学依据为:对于一个可微凸函数f(w)f(w),其中w为n1n∗1的向量,如果对于一个解ww∗,使得f(w)f(w)在某个坐标轴上ww都能达到最小值,则w*就是f(w)的全局的最小值点。梯度下降法是利用目标函数的导数(梯度)来确定搜索方向的,该梯度方向可能不与任何坐标轴平行。而坐标下降法是利用当前坐标方向进行搜索,不需要求目标函数的导数,只按照某一坐标方向进行搜索最小值,两者都是迭代方法,且每一轮迭代,都需要O(mnmn)的计算量(m为样本数,n为系数向量的维度)。
  • 最小角回归法最小角回归法运用到了前向选择法(选取余弦距离最小的值进行投影,计算残差,迭代这个过程,直到残差达到我们的较小值或者已经遍历了整个变量)和前向梯度算法(选取余弦距离最小的值的样本方向进行移动一定距离,计算残差,重复这个迭代过程)的综合,做法就是取投影方向和前向梯度算法的残差方向形成的角的平分线方向,进行移动。对前向梯度算法和前向选择算法做了折中,保留了前向梯度算法一定程度的精确性,同时简化了前向梯度算法一步步迭代的过程。

k折交叉验证中k取值多少有什么关系

理想情况下,我们认为K折交叉验证可以降低模型的方差,从而提高模型的泛化能力,通俗地说,我们期望模型在训练集的多个子数据集上表现良好,要胜过单单在整个训练数据集上表现良好。(但实际上,由于我们所得到K折数据之间并非独立而存在相关性,K折交叉验证到底能降低多少方差还不确定,同时带来的偏差上升有多少也还存疑。)完全不使用交叉验证是一种极端情况,即K=1。在这个时候,所以数据都被用于训练,模型很容易出现过拟合,因此容易是低偏差、高方差(low bias and high variance)。留一法是K折的另一种极端情况,即K=n。随着K值的不断升高,单一模型评估时的方差逐渐加大而偏差减小。但从总体模型角度来看,反而是偏差升高了而方差降低了。所以当K值在1到n之间的游走,可以理解为一种方差和偏差妥协的结果。2017年的一项研究给出了另一种经验式的选择方法,作者建议k=log(n) 且保证n/K>3d ,n代表了数据量,d代表了特征数。1、使用交叉验证的根本原因是数据集太小,而较小的K值会导致可用于建模的数据量太小,所以小数据集的交叉验证结果需要格外注意。建议选择较大的K值。2、当模型稳定性较低时,增大K的取值可以给出更好的结果3、相对而言,较大的K值的交叉验证结果倾向于更好。但同时也要考虑较大K值的计算开销。

怎么处理多分类问题?

拆解法;有三种:一对一(OvO)、一对其余(OvR)、多对多(MvM);一对一是将N个类两两配合,从而产生N(N-1)/2个分类任务,最终结果通过投票产生:即把被预测得最多的类别作为最终分类结果。一对其余则是每次讲一个类的样例作为正例、所有其他类的样例作为反例来训练N个分类器。在测试时时,若仅有一个分类器预测为正例,则对应的类别标记作为最终的分类结果,若有多个,则考虑各个分类器的预测置信度,选择置信度最大的类别作为分类结果。它需要训练N个分类器,但当类别很多时,OvO的训练时间开销通常比OvR更小。多对多是每次讲若干个类作为正类,若干个其他类作为反类。需要特殊的设计,比如‘纠错输出码’:假设一个数据集一共有K类,我们使用L种两类分类器(不仅仅是SVM),就会得到L个分类结果,每个结果用+1和-1来表示。这样,对于K类数据集,我们就可以学习到一个KLK∗L的矩阵。然后,来了一个测试样本,我们就用同一样的方法得到测试样本的长度为L的向量,拿这个向量和KLK∗L矩阵中的每一行做Hamming distance,距离最小的即为该测试样本的分类结果。

boosting和bagging的区别?

1)样本选择上:Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的.Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化.而权值是根据上一轮的分类结果进行调整.2)样例权重:Bagging:使用均匀取样,每个样例的权重相等Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大.3)预测函数:Bagging:所有预测函数的权重相等.Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重.4)并行计算:Bagging:各个预测函数可以并行生成Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果.

如何从偏差和方差的角度解释bagging和boosting的原理?

偏差指的是算法的期望预测与真实值之间的偏差程度,反映了模型本身的拟合能力;方差度量了同等大小的训练集的变动导致学习性能的变化,刻画了数据扰动所导致的影响。Bagging对样本重采样,对每一重采样得到的子样本集训练一个模型,最后取平均。由于子样本集的相似性以及使用的是同种模型,因此各模型有近似相等的bias和variance。由于E[Xin]=E[Xi]E[∑Xin]=E[Xi],所以bagging后的bias和单个子模型的接近,一般来说不能显著降低bias。另一方面,若各子模型独立,则有Var[Xin]=Var[Xi]nVar[∑Xin]=Var[Xi]n,此时可以显著降低variance。若各子模型完全相同,则Var[Xin]=Var[Xi]Var[∑Xin]=Var[Xi],此时不会降低variance。bagging方法得到的各子模型是有一定相关性的,属于上面两个极端状况的中间态,因此可以一定程度降低variance。boosting从优化角度来看,是用forward-stagewise这种贪心法去最小化损失函数,由于采取的是串行优化的策略,各子模型之间是强相关的,于是子模型之和并不能显著降低variance。所以说boosting主要还是靠降低bias来提升预测精度。

哪些机器学习算法不需要做归一化处理?

概率模型不需要归一化,因为它们不关心变量的值,而是关心变量的分布和变量之间的条件概率,如决策树、RF。而像SVM、LR、KNN、KMeans之类的最优化问题就需要归一化。

特征选择基本原则

数据预处理完成之后,我们需要选择有意义的特征,输入机器学习的算法和模型进行训练,通常来说,从两个方面考虑来选择特征

  • 特征是否发散:如果一个特征不发散,例如方差接近于0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。
  • 特征与目标的相关性:这点比较显见,与目标相关性高的特征,应当优选选择。

根据特征选择的形式又可以将特征选择方法分为3种:

  • Filter:过滤法,按照发散性或者相关性对各个特征进行评分,设定阈值或者待选择阈值的个数,选择特征。
  • WrapPEr:包装法,根据目标函数(通常是预测效果评分),每次选择若干特征,或者排除若干特征。
  • Embedded:嵌入法,先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据系数从大到小选择特征。类似于Filter方法,但是是通过训练来确定特征的优劣。

为什么GBDT只能由回归树组成?

因为GBDT是加法模型,主要是利用残差逼近的方式,这就意味每棵树的值是连续的可叠加的,这一点和回归树输出连续值不谋而合,如果采用分类树,那么残差逼近进行叠加就会使得这种叠加没有意义,比如男+男+女=到底是男是女。这个是GBDT基本原理决定的。

随机森林如何评估特征重要性

随机森林中进行特征重要性的评估思想为:判断每个特征在随机森林中的每颗树上做了多大的贡献,然后取个平均值,最后比一比特征之间的贡献大小。其中关于贡献的计算方式可以是基尼指数或袋外数据错误率。以基于袋外数据为例,对于一棵树 ,用OOB样本可以得到误差 e1e1,然后随机改变OOB中的第 jj 列,保持其他列不变,对第 jj 列进行随机的上下置换,得到误差 e2e2。至此,可以用 e1e2e1−e2 来刻画特征 jj 的重要性。其依据就是,如果一个特征很重要,那么其变动后会非常影响测试误差,如果测试误差没有怎么改变,则说明特征jj不重要。而该方法中涉及到的对数据进行打乱的方法通常有两种:1)是使用uniform或者gaussian抽取随机值替换原特征;2)是通过permutation的方式将原来的所有N个样本的第 i 个特征值重新打乱分布(相当于重新洗牌)。

xgboost怎幺处理缺失值?

xgboost处理缺失值的方法和其他树模型不同。xgboost把缺失值当做稀疏矩阵来对待,本身的在节点分裂时不考虑的缺失值的数值。缺失值数据会被分到左子树和右子树分别计算损失,选择较优的那一个。如果训练中没有数据缺失,预测时出现了数据缺失,那么默认被分类到右子树。这样的处理方法固然巧妙,但也有风险:假设了训练数据和预测数据的分布相同,比如缺失值的分布也相同,不过直觉上应该影响不是很大。

lightgbm和xgboost有什么区别?他们的loss一样么? 算法层面有什么区别?

lightgbm:基于Histogram的决策树算法;Leaf-wise的叶子生长策略;Cache命中率优化;直接支持类别特征(categorical Feature)xgboost:预排序;Level-wise的层级生长策略;特征对梯度的访问是一种随机访问。

脚本宝典总结

以上是脚本宝典为你收集整理的机器学习面试问题总结全部内容,希望文章能够帮你解决机器学习面试问题总结所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。