NNL(negative log loss) 和 cross entropy loss的区别

NNL(negative log loss) 和 cross entropy loss的区别CEformulatio NNL 公式 NNL 是 CE 的一种应用形式 使用的就是 CE 的计算公式 但在通常看到的计算形式是这种 为什么累加符号以及没有了呢 首先 CE 计算的是两个分布 真实分布与预测分布 之间的交叉熵 即距

大家好,欢迎来到IT知识分享网。

CE formulation:

NNL(negative log loss) 和 cross entropy loss的区别

 NNL公式:

NNL(negative log loss) 和 cross entropy loss的区别

NNL是CE的一种应用形式,使用的就是CE的计算公式,但在通常看到的计算形式是这种:

NNL(negative log loss) 和 cross entropy loss的区别

为什么累加符号以及y_{j}没有了呢?

首先CE计算的是两个分布(真实分布与预测分布)之间的交叉熵,即距离,以此距离值作为损失值。而在多分类(multi-class)任务中,预测分布式模型经过softmax函数后的输出vector,而真实分布则是每个输出目标类(ground truth)的onehot编码,将该值带入CE公式后就得到了最下面所展示的形式。

 

 

另外一种解释:

如何评估分类效果的好坏,这个评估方式需要满足:1.值越高代表结果越好,2.考虑预测值与真实值之间的一致性。一种满足这两种性质的公式如下:

NNL(negative log loss) 和 cross entropy loss的区别

 这个公式的值越高,代表预测结果越好,那么模型效果越好,反之值越低代表结果越差。而模型是通过降低loss值来调整参数,不能直接应用这个公式的结果需要进行一定变化。

变换方式很简单:加负号“-”来变换单调性,使之值越小代表结果越好;同时为了便于计算则加log由连乘与幂乘变成连加与乘法形式。经过变形后NLL公式就变成这样:

NNL(negative log loss) 和 cross entropy loss的区别

参考文献:

Cross entropy and log likelihood

Understanding Categorical Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss and all those confusing names

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/130947.html

(0)
上一篇 2025-08-11 18:00
下一篇 2025-08-11 18:10

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信