机器学习的分类问题和回归问题的损失函数

机器学习的分类问题和回归问题的损失函数本文深入探讨了机器学习中的损失函数 包括回归问题的均方误差 MSE 绝对值损失 MAE 和 Huber 损失 以及分类问题的 0 1 损失 交叉熵损失 Logistic 损失 铰链损失和指数损失

大家好,欢迎来到IT知识分享网。

  前几天面试了一个互联网小公司的算法岗,结果面试官避开了所有的应用项目问题的考察转向对理论知识的考察,但我回答的不是很理想,所以承接着上一个博客和这个博客有可能还有下一个博客,好好的将机器学习中的基本理论知识透彻地总结一下。

  损失函数一般的写法是 L ( y , f ( x ) ) L(y,f(x)) L(y,f(x)),是指通过机器学习模型预测出来的样本的标签和样本真实的标签的某个不一致的度量。损失函数一般是越小越好。

  在回归问题中,损失函数表示为: y − f ( x ) y-f(x) yf(x);在分类问题中,表示为: y f ( x ) yf(x) yf(x)

回归问题中的损失函数表示

  回归问题的学习等价于函数拟合:选择一条函数曲线使其很好的拟合已知数据并很好地预测未知数据。所以回归问题中的 y y y f ( x ) f(x) f(x) ∈ R \in{\mathbb{R}} R且用残差 y − f ( x ) y-f(x) yf(x)来度量回归问题的预测值和真实值的不一致程度。

1、均方误差损失(MSE,L2 loss)

  均方误差损失又叫做 L 2 L2 L2损失,数学表达式如下:

L ( y , y ^ ) = 1 n ∑ i = 1 n ( y i − f ( x i ) ) 2 . L(y,\hat{y})=\frac{1}{n}\sum_{i=1}^n(y_i-f(x_i))^2. L(y,y^)=n1i=1n(yif(xi))2.

  这是最常见的损失函数,是凸函数,可以使用梯度下降法进行优化。但对于远离真实值的点相对来说比较敏感,损失函数的代价值很大,这造成了均方误差损失函数的鲁棒性变差。

2、绝对值损失(MAE,L1 Loss)

  绝对值损失函数又叫做 L 1 L1 L1损失函数,数学表达式如下:

L ( y , y ^ ) = 1 n ∑ i = 1 n ∣ y i − f ( x i ) ∣ . L(y,\hat{y})=\frac{1}{n}\sum_{i=1}^n|y_i-f(x_i)|. L(y,y^)=n1i=1nyif(xi).

  绝对值损失函数对偏远点的处理相对均方误差来说很好,但是在 y = f ( x ) y=f(x) y=f(x)处是不可导函数,并且 M A E MAE MAE更新的梯度始终相同,在接近最优值处仍可能维持着较大的梯度而错过最优值。

3、 Huber损失函数

  函数公式如下:

L ( y , y ^ ) = { 1 2 ∣ y − f ( x ) ∣ 2 , if    ∣ y − f ( x ) ∣ ≤ δ δ ∣ y − f ( x ) ∣ − 1 2 δ 2 , if    ∣ y − f ( x

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/126334.html

(0)
上一篇 2025-09-19 18:15
下一篇 2025-09-19 18:26

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信