

作者 | Jason Brownlee 编译 | CDA数据分析师 How to Choose a Feature Selection Method For Machine Learning
特征选择是在开发预测模型时降低键入变量数目的过程。
希望提高键入变量的数目,以提高建模的计算成本,并且在这些状况下,还须要缓解模型的功耗。
基于特性的特性选择方式包括使用统计信息评估每位键入变量跟目标变量之间的关系,并选择与目标变量关系最紧密的某些键入变量。尽管统计方式的选择取决于键入跟输出变量的数据类别,但是这种方式可以迅速有效。
这样,当执行基于过滤器的特性选择时,对于机器学习从业者来说,为数据集选择适当的统计量度或许是具备挑战性的。
在本文中,您将发觉怎样为统计数据跟分类数据选择统计测度,以进行基于过滤器的特性选择。
阅读这篇文章后,您将晓得:
特征选择技术主要有两种类别:包装器跟过滤器办法。基于过滤器的特性选择方式使用统计量度对可以过滤以选择最相关特性的键入变量之间的相关性或依赖性进行评分。必须依照键入变量跟输出或响应变量的数据类别仔细选择适于特性选择的统计量度。总览
本教程分为三个部份:他们是:
特征选择方式筛选器特性选择方式的统计信息功能选择提示跟方法

特征选择方式
特征选择方式进而将键入变量的数目降低至被觉得对模型最有用的某些变量,以预测目标变量。
一些预测性建模问题包含大量变量,这些变量可能会降低模型的开发跟训练速率,并须要大量的系统显存。此外,当包含与目标变量无关的键入变量时,某些模型的功耗可能会增加。

特征选择算法有两种主要类别:包装器方式跟过滤器方式。
包装功能选择方式。筛选功能选择方式。包装器特性选择方式会争创许多具备不同键入特性子集的模型,并按照功耗指标选择这些造成最佳功耗模型的特性。这些步骤与变量类别无关,尽管他们在估算上或许太高昂。RFE是包装功能选择方式的一个挺好的反例。
包装器方式使用添加跟/或删掉预测变量的过程来评估多个模型,以找到让模型功耗最大化的最佳组合。
—第490页,应用预测建模,2013年。
过滤器特性选择方式使用统计技术来评估每位键入变量跟目标变量之间的关系,这些分数将用作选择(过滤)将在模型中使用的这些键入变量的基础。
过滤器方式在预测模型此外评估预测变量的相关性,然后仅对通过这些标准的预测变量进行建模。
—第490页,应用预测建模,2013年。
通常在键入跟输出变量之间使用相关类别统计量度作为过滤器特性选择的基础。这样,统计量度的选择高度依赖于可变数据类别。
常见的数据类别包括数字(例如高度)和类型(例如标签),但是每种数据类别都可以逐步细分,例如数字变量的整数跟浮点数机器学习方法,类别变量的布尔值,有序数或标称值。
常见的键入变量数据类别:
数值变量整数变量。浮点变量。分类变量布尔变量(二分法)。序数变量。标称变量。对变量的数据类别了解得越多,就越容易为基于过滤器的特性选择方式选择适当的统计量度。
在下一部分中,我们将回顾一些统计量度,这些统计量度可适于具备不同键入跟输出变量数据类别的基于过滤器的特性选择。

基于过滤器的特性选择方式的统计信息
在本节中,我们将考虑两大类变量类别:数字跟类型;同样,要考虑的两个主要变量组:输入跟输出。

输入变量是作为模型键入提供的变量。在特性选择中,我们希望减少这种变量的大小。输出变量是模型要预测的变量机器学习方法,通常称为响应变量。
响应变量的类别一般指示正在执行的预测建模问题的类别。例如,数字输出变量指示回归预测建模问题,而分类输出变量指示分类预测建模问题。
数值输出:回归预测建模问题。分类输出:分类预测建模问题。通常在基于过滤器的特性选择中使用的统计量度是与目标变量一次估算一个键入变量。因此,它们被称为单变量统计量度。这或许意味着在过滤过程中不会考虑键入变量之间的任何交互。
这些技术大多数都是单变量的,这意味着他们独立地评估每位预测变量。在这些状况下,相关预测变量的存在让选择重要但多余的预测变量成为或许。此问题的显著后果是选择了很多的预测变量,结果出现了共线性问题。
—第499页,应用预测建模,2013年。
使用此框架,让我们回顾一些可适于基于过滤器的特性选择的单变量统计量度。

如何选择机器学习的特性选择方式
数值键入,数值输出
这是带有数字键入变量的回归预测建模问题。
最常见的技术是使用相关系数,例如使用Pearson进行线性相关,或使用基于秩的方式进行非线性相关。
皮尔逊相关系数(线性)。Spearman的秩系数(非线性)数值键入,分类输出
这是带有数字键入变量的分类预测建模问题。
这或许是最常见的分类问题样例,
同样,最常见的技术是基于相关的,尽管在这些状况下,它们应当考虑分类目标。

方差分析相关系数(线性)。肯德尔的秩系数(非线性)。Kendall确实假设类型变量为序数。
分类键入,数值输出
这是带有分类键入变量的回归预测建模问题。
这是回归问题的一个奇怪样例(例如,您不会一直碰到它)。
不过,您可以使用相似的“ 数值键入,分类输出”方法(如上所述),但要相反。
分类键入,分类输出
这是带有分类键入变量的分类预测建模问题。
分类数据最常见的相关测度是卡方检验。您还可以使用信息论领域的互信息(信息获取)。
卡方检验(列联表)。相互信息。实际上,互信息是一种强悍的方式,可能对分类数据跟数字数据都有用,例如,与数据类别无关。

功能选择提示跟方法
使用基于过滤器的功能选择时,本节提供了一些其他留意事项。
相关统计
scikit-learn库提供了大多数有用的统计测度的实现。
例如:

皮尔逊相关系数:f_regression()方差分析:f_classif()Chi-Squared:chi2()共同信息:Mutual_info_classif()和Mutual_info_regression()此外,SciPy库提供了更多统计信息的实现,例如Kendall的tau(kendalltau)和Spearman的排行相关性(spearmanr)。
选择方法
一旦针对具备目标的每位键入变量估算出统计信息,scikit-learn库还将提供许多不同的过滤方式。
两种比较流行的方式包括:
选择前k个变量:SelectKBest选择底部的百分位数变量:SelectPercentile我一直自己使用SelectKBest。
转换变量
考虑转化变量以访问不同的统计方式。
例如,您可以将分类变量转化为序数(即使不是序数),然后查看是否有任何有趣的结果。
您还可以让数值变量离散(例如,箱);尝试基于分类的测度。
一些统计测度假定变量的属性,例如Pearson假定假设观测值具备高斯机率分布并具备线性关系。您可以转化数据以满足检测的期望,然后不管期望怎样都可以尝试检测并比较结果。
最好的方式是何种?
没有最佳功能选择方式。
就像没有最佳的键入变量集或最佳的机器学习算法一样。至少不是普遍的。
相反,您应当使用认真的系统试验来发觉最适宜您的特定问题的办法。
尝试通过不同的统计量度来选择适宜不同特性子集的各类不同模型,并找出最适宜您的特定问题的模型。
本文来自电脑杂谈,转载请注明本文网址:
http://www.pc-fly.com/a/jisuanjixue/article-134957-1.html
就是经济下滑加快
怎么也没法输入