第441章香农的信息熵

作者:蔡泽禹 加入书签推荐本书

/3)*(2/3)^(2n/3)。不知道同学们注意到没有,每个典型序列被掷出来的概率“差不多”都是这个数。同时注意到只有典型序列才可能被掷出来,也就是说,所有典型序列出现的概率之和“差不多”就是 1。这样俺们就可以得出,典型序列的数目 t “差不多”就是 1 除以每个典型序列出现的概率,也就是

1/((1/3)^(n/3)*(2/3)^(2n/3))=(1/3)^(-n/3)*(2/3)(-2n/3).

针对这 t 个序列问问题,就“差不多”等同于俺跟你玩一次这样的“二十个问题”游戏:俺从{1, 2,…, t}里取一个数,而且这个数服从均匀分布;然后你问俺“是不是”问题来猜这个数。那么你最少需要多少问题呢?现在回头找到之前让你们用红笔圈出的结论:最优解是二分法;你最少需要的问题总数是 log t!而且不管俺取的是哪个数,你都需要这么多问题!

认真的同学可能会叫板说,哎,这个 t 也未必是 2 的整数次方啊,二分法能用吗?!嗯,这个问题不错。但可以这样想,只要把 n 弄得足够大,总可以让 t 非常接近 2 的某个整数次方。而且,即使 t 真的不是 2 的整数次方,还可以换一个角度得到我们后面要得到的结论,比如,一定存在一个整数k 使得 t 是在 2^k 和 2^(k+1)之间......总之,当 n 无穷大的时候,凌乱的世界都变整齐了,这个问题不再是问题了。

这个最少问题数 log t 是用来问这个长度为 n 的硬币序列的。平均到每次掷硬币,平均需要的最少问题数就是(log t)/n。稍微整理一下这个表达式就应该可以看到,这个数字正好等于-(1/3) -(2/3) log (2/3)。

这也就是压缩这个“老千掷硬币”信息源所需要的最少比特数。

把这种推演用到任意信息源。如果一个信息源往外蹦的随机变量都独立而且服从同一个定义在s={1, 2,…, m}上的分布,那么以下结论依次成立。

信息源里蹦出的随机序列几乎可以肯定是典型的!

每个典型序列出现的概率差不多就是 ^*^*…*^!

典型序列的个数 t 差不多就是^(-)*^(-)*…*^(-)!

压缩这个信息源蹦出的每个随机变量平均所需要的最少比特数就是(logt)/n!

这个数字(logt)/n 就等于:-log -log -…- log .

这个数字,就是熵。

从熵的表达式看,熵是通过一个概率分布函数 来定义的。因为概率分布函数 都对应于它所描写的随机变量 x,所以俺们也可以认为熵是对随机变量 x 的某种特性的度量,而把它记作 。从压缩的角度讲,熵值 是

上一章 返回目录 下一章