信息论与编码

信息论与编码信息论研究信息的度量 内容主要围绕香农三大定理展开 研究在不许失真的情况下信息传输率的极限值 以及给定信源且允许一定失真的条件下信息速率极限值 并研究在误码率小于给定值的条件下如何最有效地利用信

大家好,欢迎来到IT知识分享网。

信息论

  • 信息是什么?
    信息是确定性的增加,信息的度量(熵)是信息不确定性的度量.
  • 数字通信系统
    数字通信系统信源、信源及信道编码器、信道、信源及信道译码器、信宿五部分组成;
    信源编码器将信源符号转换成适合信道传输的符号,并压缩信源的冗余度以提高通信的有效性,也叫压缩编码;
    信道编码器通过增加冗余的纠错码元来提高通信的可靠性,配合译码将差错率降到允许范围内.


1. 信源

  • 信源的数学模型为一个样本空间及概率测度.
  • 信源分为离散的和连续的、无记忆的和有记忆的.离散无记忆单符号信源每次只输出一个离散的符号消息,不同时刻的符号之间彼此统计独立;离散无记忆扩展信源输出的消息是由许多不同时刻发出的符号所成的符号序列,先后发出的符号彼此间统计独立,符号序列的概率是序列中各个符号概率的乘积;有记忆信源时间上先后发出的消息间有依赖关系.

2. 信道

  • 信道的数学模型用转移概率描述.
  • 信道分为离散的和连续的、无记忆的和有记忆的.离散无记忆单符号信道(DMC)的输入和输出都是离散无记忆的单个符号,离散无记忆N维扩展信道的输入输出都是长为N的符号序列,序列的信道转移概率是对应N个符号信道转移概率的乘积.
  • 四种常见DMC:二元对称信道,无干扰信道,二元删除信道,二元Z信道.

3. 信息的度量

自信息量

  • 自信息量(信息量):​​​​​​在这里插入图片描述
  • 条件自信息量:接收到yj后对xi是否发生的不确定度:在这里插入图片描述

q(xi)为先验概率,q(xi|yj)为后验概率.

互信息量

  • 互信息量:事件x,y之间的互信息是y发生所得到的关于x的信息量,等于“x的自信息量”减去 “y条件下x的自信息量”:
    在这里插入图片描述在这里插入图片描述在这里插入图片描述
  • 互信息量的性质
    互易: I(x;y)=I(y;x);
    可负: yj的发生降低了xi发生的可能性;
    当xi,yj统计独立时,互信息量及条件互信息量为0;
    任何两个事件的互信息量不大于其中一个事件的自信息量.



信息熵

  • 平均自信息量(熵,信源熵):在这里插入图片描述
  • 平均条件自信息量(条件熵):在这里插入图片描述
    联合概率q(xiyj)=q(yj|xi)q(xi)=q(xi|yj)q(yj);当X和Y统计独立时,q(xiyj)=q(xi)q(yj).
  • 联合熵:H(X)在二维空间XY上的推广
    在这里插入图片描述
  • 平均互信息量(交互熵):
    在这里插入图片描述
  • 熵,条件熵,联合熵的关系:
    在这里插入图片描述
    当X,Y统计独立时:
    在这里插入图片描述


  • 交互熵与信源熵,条件熵的关系:
    在这里插入图片描述

熵函数的性质

  • 极值性(极大离散熵定理):对于有限离散随机变量集合,当集合中的事件等概率发生时,熵最大.在这里插入图片描述
  • 条件熵小于等于无条件熵: H(Y|X) ≤ H(Y);
  • 联合熵大于独立事件的熵,小于等于两独立事件熵之和:H(XY)>=H(X),H(XY)>=H(Y),H(XY)<=H(X)+H(Y).

平均互信息量性质

  • 非负:I(X;Y)>=0;
  • 互易:I(X;Y)=I(Y;X);
  • 极值:I(X;Y)<=H(X),I(X;Y)<=H(Y);
  • 凹凸性:平均互信息量I(X;Y)是信源的n凸函数,是信道的u型凸函数.

4.信源编码

  • 二元码:码符号集为0,1;
  • 等长码/变长码:都是唯一可译码;
  • 奇异码/非奇异码:非奇异码不同消息对应不同码字;
  • 原码的N次拓展码:将信源N次拓展得到新的信源符号序列而由原码级联得到的新码;
  • 唯一可译码:任意N次拓展码都是非奇异码的码;
    所有可译码中平均码长最短的称为最佳码,信源编码就是寻找最佳码.
    克拉夫特不等式:在这里插入图片描述

  • 即时码:任一码字都不是其他码字字头的码(也称无前缀码);
    即时码一定是唯一可译码;即时码可用树图法构造
    在这里插入图片描述

信息传输速率

  • 平均码长:在这里插入图片描述
  • 信息传输速率:在这里插入图片描述
  • 编码效率:在这里插入图片描述

等长编码定理和变长编码定理

  • 等长编码定理
    在这里插入图片描述
  • 变长编码定理(香农第一定理)在这里插入图片描述

三种常用变长码编码方法

  • 香农编码法,费诺编码法,霍夫曼编码法(编码效率最高)

5. 信道编码基础

  • 一维信道和N维信道的关系:在这里插入图片描述
    当信源和信道都离散无记忆时,等号成立,即N维序列传输问题可归结为单符号传输问题.
  • 几种特殊信道的信道容量及达到信道容量的充要条件:
    在这里插入图片描述
    对称信道/准对称信道/强对称信道:略.

信道编码定理(香农第二定理)

  • 最大后验概率译码准则:错误概率最小等同于后验概率最大.
    即收到yi后在所有x中选择使后验概率q(x|y)(也称信道疑义度)最大的xi作为译码.
  • 极大似然译码准则:收到yi后在所有x中选择使转移概率q(y|x)最大的xi作为译码.
  • 信道编码定理:对任何离散无记忆信道DMC,当信道的信息传输率R<C,码长N足够长时,总可以找到译码规则使信道输出端的最小平均错误译码概率Pmin达到任意小(信道容量C是无差错传输时信息传输率R的极限值).
  • 信道编码逆定理:当R>C时不可能存在任何方法使差错率任意小(或说趋于零).

率失真编码定理(香农第三定理)

  • 失真测度d(x,y):量化失真.
  • 平均失真:失真的数学期望.
  • 率失真函数:在这里插入图片描述
  • 率失真函数的性质
    值域:在这里插入图片描述
    定义域:在这里插入图片描述
    R(D)是连续,单调,减函数.


  • 率失真编码定理:给定允许失真D,当信息传输率R>R(D)时,只要信源序列足够长,总可以找到一种编码方法使平均失真趋近于D.

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/121978.html

(0)
上一篇 2025-10-20 10:26
下一篇 2025-10-20 10:33

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信