首页 > 玄幻魔法 > 数学心 > 第四百七十八章 平均信息量

第四百七十八章 平均信息量(1/1)

目录
好书推荐: 深渊游戏之超人领主 明日方舟里的咸鱼六星 末世降临:无限升级避难所 零默的失忆人生 唯一练气士 汉道天下 权御群雄 从宝可梦开始的海贼王冒险 风云假城主开局 仙府长生

如果随机变量x是在s={1,2,…,m}里取值,那么可以证明,熵值h(x)的取值必定在0和logm之间。当随机变量x在s上均匀分布的时候,h(x)取最大值logm;当x以百分之百的概率取s中的某个数值的时候,h(x)取最小值0。前者对应于“不确定性”最大的x,而后者对应于“不确定性”最小的(即完全可以确定的)x。所以,也可以把熵值h(x)理解为对随机变量x的“不确定性“(或“不可预测性”)的度量。

因此,随机变量所包含的“信息量”和它的“不确定性”其实是同一个概念。一个随机变量越难以确定,它所包含的信息量越多。这种认识对初次接触熵的人来说或许不够自然。但仔细体会一下,确实是有道理的。如果俺想告诉你的事你很容易猜到,或者说你不用问几个问题就能知道,那俺要说的话对你来说就没多少信息量。

在熵的定义里-logp(a)又是什么物理意义呢?当然这个数字可以理解为a编码所需要的比特数(在前面例子里,我们能看到以1/8概率出现的事件,需要用3个比特来编码)。换一个角度理解,-logp(a)可以理解为a的“惊奇度”。一个出现概率极低的事件a,比如世界末日,它一旦出现就会令人非常惊奇,所以对应的-logp(a)就会很大;而如果a出现的概率很大,它的出现就不会太令人吃惊,所以对应的-logp(a)就会很小。因此,熵值h(x)也可以理解为随机变量x的“平均惊奇度”。

目录
新书推荐: 魔兽萌宝:妖狐娘亲不好惹 恋上你的宠:狐狸王爷俏王妃 情人眼里出妖怪:月烨 凰惊天下:倾世小妖妃 一念相思起 御狐先生 不死龙尊 神灵仙境 灵魂禁区 乾玄九龙记
返回顶部