<返回更多

如何在面试中解释各种机器学习模型

2020-06-23    
加入收藏

从回归到SVM再到XGBoost的模型汇总

如何在面试中解释各种机器学习模型

> Created by katemangostar — www.freepik.com

 

在准备任何面试时,我想共享一个资源,为每个机器学习模型提供简要的说明。 它们的含义并不广泛,相反。 希望通过阅读本文,您将了解如何以简单的方式交流复杂的模型。

涵盖类型

· 线性回归

· 岭回归

· 套索回归

· 逻辑回归

· K最近的邻居

· 朴素贝叶斯

· 支持向量机

· 决策树

· 随机森林

· AdaBoost

· 梯度提升

· XGBoost

线性回归

线性回归涉及使用最小二乘法找到代表数据集的"最佳拟合线"。 最小二乘方法涉及找到一个线性方程,该方程使残差平方和最小。 残差等于实际负预测值。

举个例子,红线比绿线是最适合的更好的线,因为它离点更近,因此残差较小。

如何在面试中解释各种机器学习模型

> Image created by Author

 

岭回归

Ridge回归,也称为L2正则化,是一种引入少量偏差以减少过度拟合的回归技术。 它通过最小化残差平方和加罚分来实现,罚分等于λ乘以斜率平方。 Lambda是指罚分的严重性。

如何在面试中解释各种机器学习模型

 


如何在面试中解释各种机器学习模型

> Image Created by Author

 

如果没有罚分,则最佳拟合线的斜率会变陡,这意味着它对X的细微变化更敏感。通过引入罚分,最佳拟合线对X的细微变化变得较不敏感。 背后的岭回归。

套索回归

套索回归,也称为L1正则化,与Ridge回归相似。 唯一的区别是,罚分是使用斜率的绝对值计算的。

如何在面试中解释各种机器学习模型

 

逻辑回归

Logistic回归是一种分类技术,也可以找到"最合适的直线"。 但是,与线性回归不同的是,线性回归使用最小二乘方找到最佳拟合线,逻辑回归使用最大似然法找到最佳拟合线(逻辑曲线)。 这样做是因为y值只能是1或0。 观看StatQuest的视频,了解如何计算最大可能性。

如何在面试中解释各种机器学习模型

> Image Created by Author

 

K最近邻居

如何在面试中解释各种机器学习模型

> Image Created by Author

 

K最近邻居是一种分类技术,通过查看最近的分类点对新样本进行分类,因此称为" K最近"。 在上面的示例中,如果k = 1,则未分类的点将被分类为蓝点。

如果k的值太低,则可能会出现异常值。 但是,如果它太高,可能会忽略只有几个样本的类。

朴素贝叶斯

朴素贝叶斯分类器是一种受贝叶斯定理启发的分类技术,其陈述以下等式:

如何在面试中解释各种机器学习模型

 

由于朴素的假设(因此得名),变量在给定类的情况下是独立的,因此可以如下重写P(X | y):

如何在面试中解释各种机器学习模型

 

另外,由于我们要求解y,所以P(X)是一个常数,这意味着我们可以从方程中将其删除并引入比例。

因此,将每个y值的概率计算为给定y时xn的条件概率的乘积。

支持向量机

支持向量机是一种分类技术,可找到称为超平面的最佳边界,该边界用于分隔不同的类别。 通过最大化类之间的余量来找到超平面。

如何在面试中解释各种机器学习模型

> Image Created by Author

 

决策树

如何在面试中解释各种机器学习模型

 

决策树本质上是一系列条件语句,这些条件语句确定样本到达底部之前所采取的路径。 它们直观且易于构建,但往往不准确。

随机森林

随机森林是一种集成技术,这意味着它将多个模型组合为一个模型以提高其预测能力。 具体来说,它使用自举数据集和变量的随机子集(也称为装袋)构建了数千个较小的决策树。 拥有1000棵较小的决策树,随机森林使用"多数获胜"模型来确定目标变量的值。

如何在面试中解释各种机器学习模型

 

例如,如果我们创建一个决策树,第三个决策树,它将预测0。但是,如果我们依靠所有4个决策树的模式,则预测值为1。这就是随机森林的力量。

AdaBoost

AdaBoost是一种增强算法,类似于"随机森林",但有两个重要区别:

· AdaBoost通常不是由树木组成,而是由树桩组成的森林(树桩是只有一个节点和两片叶子的树)。

· 每个树桩的决定在最终决定中的权重不同。 总误差较小(准确度较高)的树桩具有较高的发言权。

· 创建树桩的顺序很重要,因为每个后续树桩都强调了在前一个树桩中未正确分类的样本的重要性。

梯度提升

Gradient Boost与AdaBoost类似,因为它可以构建多棵树,其中每棵树都是从前一棵树构建的。 与AdaBoost可以构建树桩不同,Gradient Boost可以构建通常具有8至32片叶子的树木。

更重要的是,Gradient与AdaBoost的不同之处在于构建决策树的方式。 梯度提升从初始预测开始,通常是平均值。 然后,基于样本的残差构建决策树。 通过采用初始预测+学习率乘以残差树的结果来进行新的预测,然后重复该过程。

XGBoost

XGBoost本质上与Gradient Boost相同,但是主要区别在于残差树的构建方式。 使用XGBoost,可以通过计算叶子与前面的节点之间的相似性得分来确定残差树,以确定哪些变量用作根和节点。

谢谢阅读!

希望在阅读完本文后,您将通过突出重点了解一下如何总结各种机器学习模型。 同样,这并不意味着要深入解释每篇文章的复杂性。 根据上面的总结,请随意学习所有不完全有意义的模型!

特伦斯·辛

ShinTwin的创始人| 让我们在LinkedIn上建立联系| 项目组合在这里。

(本文翻译自Terence S的文章《How to Explain Each machine Learning Model at an Interview》,参考:
https://towardsdatascience.com/how-to-explain-each-machine-learning-model-at-an-interview-499d82f91470)

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>