假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。

admin2008-04-01  32

问题 假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。

选项 A、-logqP(Si)
B、logqP(Si)
C、-log2P(Si)
D、log2P(Si)

答案C

解析 信息与“不确定性”紧密相关,是对于接收者来说事先不知道的消息。在有效的通信中,信源将要发送的信号是不确定的,接收者在接收到信号后不确定性减小或消失,那么接收者从不知到知而获得信息。信息量的定义如下:假设信源是由q个离散符号S1,S2,…,Si…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(Si)等于log2(1/P(Si)),单位为比特(bit),而1bit等于大概二元制信源每一个符号的信息量。直观上可以理解为信号出现的概率越小,信息量就越大,信号出现的概率越大,信息量就越小,如果信号出现的概率是1(没有任何不确定性),信息量就是0。将信息的测度纳入概率的范畴,符合人们对信息量的理解。
转载请注明原文地址:https://jikaoti.com/ti/rF67FFFM
0

最新回复(0)