损失函数
损失函数
回归问题的损失函数
分类问题的损失函数
交叉熵损失
分类问题中交叉熵优于MSE的原因
https://zhuanlan.zhihu.com/p/84431551
多个二分类同时计算交叉熵损失
通常的负采样中,只有一个正样本和多个负样本,但在某些时候,会有多个正样本和多个负样本同时存在,比如:
那该怎么计算交叉熵受损失呢?
假设有m个正样本和n个负样本同时存在,则其交叉熵损失计算为
tensorflow代码为
Logistic loss
Logistic loss和交叉熵损失损失的等价性
对于解决分类问题的FM模型,
当标签为[1, 0]时,其损失函数为交叉熵损失:
当标签为[1, -1]时,其损失函数为
其中,f(x)是,不是。
这两种损失函数其实是完全等价的。
(1)当为正样本时,损失为
标签为[1, 0]
标签为[1, -1]
(2)当为负样本时,损失为
标签为[1, 0]
标签为[1, -1]
可见,两种损失函数的值完全一样。
参考文献
本文参考了此博客。
"分类问题中交叉熵优于MSE的原因"参考了此博客。
"Logistic loss和交叉熵损失损失的等价性"参考了此博客。
Last updated