贡献者: addis
给出一个 $N$ 元离散概率质量函数 $P(x_i)$($i=1,\dots,N$),信息熵定义为
无论是在统计力学还是信息论种,简单来说,熵代表不确定的程度。在等可能的情况下,可能性更多,就越不确定。若 $N$ 固定不变,当各种可能的概率不完全相等时,根据式 1 不难验证 $H < \log_2 N$。这是因为 “知道哪种可能性更大” 本身也是一种信息。就像在做选择题时,如果对这道题完全不会,那么每个选项对考生来说都是等可能的,但如果朦胧地记得一些信息,就可能会对某个选项更有把握,信息熵就会变小。