贡献者: xzllxls
交叉熵(Cross entropy)是信息论中一种衡量两个数据分布之间差异的度量。 在离散情形下,随机变量 x 有两个概率分布 P 和 Q,P 和 Q 的交叉熵定义如下:
在连续情形下,随机变量 x 有两个概率密度 p 和 q,p 和 q 的交叉熵定义如下:
交叉熵和相对熵有一定联系,满足关系:H(P,Q)=H(P)+KL(P||Q)。
© 小时科技 保留一切权利