为了正常的体验网站,请在浏览器设置里面开启Javascript功能!

南邮信息论期末小结

2019-05-15 61页 ppt 296KB 42阅读

用户头像 个人认证

飞哥

暂无简介

举报
南邮信息论期末小结 复习 信息是具体信号与消息的内涵,是信号载荷的内容,是消息描述的对象 信号是信息在物理表达层的外延 消息是信息在数学表达层的外延 第1章 绪论 通信系统的模型 通常,可将信息与通信中的基本问题归纳为三性:有效性、可靠性和安全性。分别通过信源编码、信道编码和加密编码来实现。 Shannon三大极限定理是: 无失真信源编码定理 、 信道编码定理 、 限失真信源编码定理 信源描述与分类 信源的基本特性是具有随机不确定性 分类——离散信源和连续信源 无记忆:单...
南邮信息论期末小结
复习 信息是具体信号与消息的内涵,是信号载荷的内容,是消息描述的对象 信号是信息在物理达层的外延 消息是信息在数学表达层的外延 第1章 绪论 通信系统的模型 通常,可将信息与通信中的基本问归纳为三性:有效性、可靠性和安全性。分别通过信源编码、信道编码和加密编码来实现。 Shannon三大极限定理是: 无失真信源编码定理 、 信道编码定理 、 限失真信源编码定理 信源描述与分类 信源的基本特性是具有随机不确定性 分类——离散信源和连续信源 无记忆:单符号无记忆信源 符号序列的无记忆信源 有记忆:符号序列的有记忆信源 符号序列的马尔可夫信源 信息量 自信息量 联合自信息量 条件自信息量 第2章 信源与信息熵 单符号离散信源熵 符号熵 条件熵 联合熵 平均互信息量 熵的性质 对称性 非负性 确定性 香农辅助定理 最大熵定理 联合熵和条件熵的性质 平均互信息的性质 对称性 与熵和条件熵及联合熵关系 非负性 极值性 凸性函数性质 信息不增性原理 离散序列信源的熵 离散有记忆信源的序列熵和消息熵 结论1 是L的单调非增函数 结论2 结论3 是L的单调非增函数 结论4 马尔可夫信源 当信源的记忆长度为m+1时,该时刻发出的符号与前m个符号有关联性,而与更前面的符号无关。 马氏链极限熵 连续信源的熵与互信息 幅度连续的单个符号信源熵 最大熵定理 限峰功率最大熵定理:对于定义域一定的随机变量X,当它是均匀分布时具有最大熵 限平均功率最大熵定理:对于相关矩阵一定的随机变量X,当它是正态分布时具有最大熵 冗余度,表示给定信源在实际发出消息时所包含的多余信息。 冗余度来自两个方面,一是信源符号间的相关性;二是信源符号分布的不均匀性 1、信息传输率 信道中平均每个符号所能传送的信息量定义为信息传输率R R=I(X;Y)=H(X)-H(X/Y) 比特/符号 信息传输速率Rt Rt=I(X;Y)/t 比特/秒(bps) 第3章 信道与信道容量 2、信道容量 比特/符号(bits/symbol或 bits/channel use) 若平均传送一个符号要T秒,则 比特/秒(bit/s或bps) 对称信道容量 强对称信道 二进制对称信道容量 C=1-H() 准对称DMC信道容量 连续信道及其容量 限时限频限功率加性高斯白噪声信道 信道的容量 单位时间的信道容量 香农公式 信息率失真函数的物理意义是: 对于给定信源,在平均失真不超过失真限度D的条件下,信息率容许压缩的最小值R(D)。 第4章 信息率失真函数 R(D)是非负的实数,即R(D)  0。其定义域为0~Dmax,其值为0~H(X)。当D>Dmax时,R(D)  0。 R(D)是关于D的下凸函数,因而也是关于D的连续函数。 R(D)是关于D的严格递减函数。 由以上三点结论,对一般R(D)曲线的形态可以画出来 离散信源 连续信源 第5章 信源编码 编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真。 一般称 无失真信源编码定理为第一极限定理; 信道编码定理(包括离散和连续信道)称为第 二极限定理; 限失真信源编码定理称为第三极限定理。 由于信源符号之间存在分布不均匀和相关性,使得信源存在冗余度,信源编码的主要任务就是减少冗余,提高编码效率。 信源编码的基本途径有两个: 使序列中的各个符号尽可能地互相独立,即解除相关性; 使编码中各个符号出现的概率尽可能地相等,即概率均匀化。 信源编码的基础是信息论中的两个编码定理: 无失真编码定理 限失真编码定理 无失真编码只适用于离散信源 对于连续信源,只能在失真受限制的情况下进行限失真编码 唯一可译码存在的充分和必要条件 各码字的长度Ki 应符合克劳夫特不等式: 无失真的信源编码定理 定长编码定理 K是定值 且惟一可译码 变长编码定理 码长K是变化的 根据信源各个符号的统计特性,如概率大的符号用短码,概率小的用较长的码,使得编码后平均码长降低,从而提高编码效率。(统计匹配) 定长编码定理说明, 码字所能携带的信息量大于信源序列输出的信息量,则可以使传输几乎无失真,当然条件是L足够大。 反之,当 时,不可能构成无失真的编码,也就是不可能做一种编码器,能使收端译码时差错概率趋于零。 时,则为临界状态,可能无失真,也可能有失真。 在连续信源的情况下,由于信源的信息量趋于无限,显然不能用离散符号序列来完成无失真编码,而只能进行限失真编码。 定义 为编码效率,编码效率总是小于1,且最佳编码效率为 单个符号变长编码定理:若离散无记忆信源的符号熵为H(X),每个信源符号用m进制码元进行变长编码,一定存在一种无失真编码,其码字平均长度满足下列不等式 离散平稳无记忆序列变长编码定理:对于平均符号熵为HL(X)的离散平稳无记忆信源,必存在一种无失真编码方法,使平均信息率满足不等式 其中为任意小正数。 用变长编码来达到相当高的编码效率,一般所要求的符号长度L可以比定长编码小得多。 能获得最佳码的编码方法主要有: 香农(Shannon) 费诺(Fano) 哈夫曼(Huffman)等 进行哈夫曼编码时,为得到码方差最小的码,应使合并的信源符号位于缩减信源序列尽可能高的位置上,以减少再次合并的次数,充分利用短码。 哈夫曼码是用概率匹配方法进行信源编码。 哈夫曼码的编码方法保证了概率大的符号对应于短码,概率小的符号对应于长码,充分利用了短码; 缩减信源的最后二个码字总是最后一位不同,从而保证了哈夫曼码是即时码。 限失真信源编码定理 信息率R>R(D),平均失真可以<=D 信息率RD 算术编码 非分组码的编码方法之一——算术码 采用累积概率P(S)表示码字C(S),符号概率p(S)表示状态区间A(S) 第6章 信道编码 有扰离散信道的编码定理 纠错编译码的基本原理与分析方法 线性分组码 香农信道编码定理 正定理:只要传信率R小于信道容量C,总存在一种信道码(及解码器),可以以所要求的任意小的差错概率实现可靠的通信。 逆定理:信道容量C是可靠通信系统传信率R的上边界,如果R >C,就不可能有任何一种编码能使差错概率任意小。 6.2.2最优译码与最大似然译码 最佳译码,也叫最大后验概率译码(MAP) 最大似然译码( MLD) 消息组mi 码字ci 接收码r 估值 消息 编码器 信道 译码 消息 还原 BSC信道的最大似然译码可以简化为最小汉明距离译码。 由于BSC信道是对称的,只要发送的码字独立、等概,汉明距离译码也就是最佳译码。 线性分组码 G、G’、 H、 C、dmin、t、d 、S-E 缩短码、扩展码 汉明码(完备码) 循环码 g(x) 、 h(x) 系统循环码 m(x) 、 g(x) 、 r(x) 、 c(x)关系 G、G’、 H、 C、dmin、t、d 、S-E 第7章 加密编码 加密编码的基础知识 数据加密标准DES 公开密钥加密法 密码学的基本概念: 明文、密文、加密、解密、破译、密钥、密码体制 保密性、真实性 对称密钥体制、非对称密钥体制 密码学中的熵概念 密码体制必须满足三个要求: 对所有密钥,加密解密都必须迅速有效 容易使用 体制的安全性只依赖于密钥的保密性,而不依赖于E、D的保密性 通信系统模型 I(U;V)=H(U) I(M;C)=0 I(M;KC)=H(M) 信源 信宿 信源 编码 加密 信源 译码 解密 信道 编码 信道 译码 信道 干扰 噪声 M C K U V � � � � � � � � H(m)� H(c)� H(m|c)� H(c|m)� I(m;c)� 一个保密系统:如果 H(M |C)=H(M)或 I(M;C)=0, 则该保密系统称为是完善的或无条件的保密系统,绝对安全 对于合法的接收者,在已知密钥和密文条件下提取明文信息: H(M/CK)=0 I(M;CK)=H(M)-H(M/CK)=H(M) I(M;C) H(M)-H(K) 保密系统的密钥量越少,密钥熵H(K)就越小,其密文中含有的关于明文的信息量I(M;C)就越大。 完善保密系统I(M;C) =0,所以H(K) H(M) 数据加密标准DES 换位和替代密码 DES密码算法 DES密码的安全性 RSA密码体制 密钥:两个密钥:公钥(e,n) 私钥(d,n) 加密解密: 加密时: 解密时:
/
本文档为【南邮信息论期末小结】,请使用软件OFFICE或WPS软件打开。作品中的文字与图均可以修改和编辑, 图片更改请在作品中右键图片并更换,文字修改请直接点击文字进行修改,也可以新增和删除文档中的内容。
[版权声明] 本站所有资料为用户分享产生,若发现您的权利被侵害,请联系客服邮件isharekefu@iask.cn,我们尽快处理。 本作品所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用。 网站提供的党政主题相关内容(国旗、国徽、党徽..)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。

历史搜索

    清空历史搜索