b2科目四模拟试题多少题驾考考爆了怎么补救
b2科目四模拟试题多少题 驾考考爆了怎么补救

regularization_roc auc_吴恩达regularization

电脑杂谈  发布时间:2017-04-06 01:03:02  来源:网络整理

roc auc_吴恩达regularization_regularization

L1范数正则化。L1范数正则化是机器学习中重要的手段。

在支持向量机学习过程中。实际是一种对于成本函数求解最优的过程。因此。L1范数正则化通过向成本函数中添加L1范数。使得学习得到的结果满足稀疏化。从而方便人类提取特征。

中文名,L1范数正则化。别名,稀疏规则算子。别名,lasso。

L1范数的定义。L1范数是指向量中各个元素绝对值之和。

roc auc_regularization_吴恩达regularization

也有个美称叫“稀疏规则算子”。比如 向量 。 那么A的L1范数为。

L1范数正规化原理。在支持向量机学习过程中。

实际是一种对于成本函数求解最优的过程。regularization例如我们有一个数学模型的样子。 。其中x是输入。y是输出。如果我们已知 。那么我们可以根据任何输入x的值。知道输出y的值。这叫预测。因此。问题进化为。我们手里有很对很多组x对应的y。但是不知道 !我们想通过测量很多组的x和y。来推断出 为多少。我们将 T记为 。 记为 。那么原式则写为若那么因此我们现在知道 和 。我们希望通过计算得到 !由于我们手中的很多组x和y都是通过实验的结果测试出来的。

测量的结果就会有误差。因此 不可能计算你的准。那么我们很容易想到使用最小二乘法 来计算 。我们构建一个方程。这个方程也是最小二乘法的核心支持向量机的本质。就是找到一组 。能够让 最小! 因此。就是我们的成本函数。如果我们的问题是’灰箱‘。直接用最小二乘法找到 是很简洁的。如果我们的问题是‘黑箱’ 。在拟合时。我们就不知道我们需要用几阶的多项式模型来逼近。为了简便。不在这里赘述)。那么我们甚至连 的个数都不知道。

吴恩达regularization_regularization_roc auc

我们只能通过尝试和专家经验来猜测阶数。如果我们的阶数猜测多了。就会多出很多冗余的项。我们希望这些冗余项对应的权值 为0。这样我们就知道哪些项是无关的。是冗余的项。但是只用最小二乘法确定 时。可能所有的 的绝对值都极其巨大。这是很正常的现象。但是它使得我们无法剔除无关项。得到的模型也毫无实际意义。模型处于ill-condition状态 。我们在成本函数中加入L1范数。成本函数 变为其中 是我们用来控制L1正规化影响的权重系数。

因此。我们的目标成为了 : 找到一组使得最小!继而使用最小二乘法。完成运算。如上文所述。监督机器学习问题无非就是“minimize your error while regularizing your parameters”。也就是在规则化参数的同时最小化误差。最小化误差是为了让我们的模型拟合我们的训练数据。而规则化参数是防止我们的模型过分拟合我们的训练数据。因为参数太多。会导致我们的模型复杂度上升。

容易过拟合。也就是我们的训练误差会很小。但训练误差小并不是我们的最终目标。我们的目标是希望模型的测试误差小。也就是能准确的预测新的样本。所以。我们需要保证模型“简单”的基础上最小化训练误差。这样得到的参数才具有好的泛化性能。而模型“简单”就是通过规则函数来实现的。另外。规则项的使用还可以约束我们的模型的特性。这样就可以将人对这个模型的先验知识融入到模型的学习当中。强行地让学习到的模型具有人想要的特性。

例如稀疏。regularization低秩。平滑等等。


本文来自电脑杂谈,转载请注明本文网址:
http://www.pc-fly.com/a/jisuanjixue/article-39712-1.html

    相关阅读
      发表评论  请自觉遵守互联网相关的政策法规,严禁发布、暴力、反动的言论

      • 曹海莹
        曹海莹

        而咱们的071两栖舰航速20节追不上人家30的航速

      • 赵世豪
        赵世豪

        不知道是什么品牌味道超级难喝零售假要比RIO便宜2元

      热点图片
      拼命载入中...