图书介绍

信息论基础 第2版2025|PDF|Epub|mobi|kindle电子书版本百度云盘下载

信息论基础 第2版
  • 石峰,莫忠息编著 著
  • 出版社: 武汉:武汉大学出版社
  • ISBN:7307049511
  • 出版时间:2002
  • 标注页数:251页
  • 文件大小:8MB
  • 文件页数:265页
  • 主题词:信息论-高等学校-教材

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

信息论基础 第2版PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

前言1

第1章 概论1

1.1 信息理论的基本内容1

1.2 信息理论的发展简史4

1.3 控制论、信息论与系统论7

1.4 信息理论的应用9

第2章 信息与熵14

2.1 信源熵14

2.2 联合熵与条件熵20

2.3 熵函数的惟一性25

2.4 熵函数的性质28

2.5 连续型随机变量的熵33

2.6 意义信息和加权熵36

习题42

3.1.1 事件的互信息44

3.1 平均互信息44

第3章 互信息44

3.1.2 多随机变量下条件互信息与联合事件的互信息45

3.1.3 平均互信息46

3.2 互信息与其他熵之间的关系47

3.2.1 互信息的等价定义47

3.2.2 熵之间的关系48

3.3 多个随机变量的互信息48

3.3.1 两组随机变量之间的互信息49

3.3.2 条件互信息49

3.3.3 随机向量中各随机变量之间的互信息50

3.4 互信息函数的性质50

3.5 连续型随机变量的互信息52

习题53

第4章 离散信源的无错编码56

4.1 信源与信源编码简介56

4.1.1 信源56

4.1.2 信源的分类57

4.1.3 信源编码58

4.2 无记忆信源的渐近等同分割性与定长编码定理59

4.2.1 渐近等同分割性(AEP)59

4.2.2 定长编码定理62

4.3 离散无记忆信源的变长编码63

4.3.1 前缀码与Kraft不等式64

4.3.2 Huffman编码与最优编码定理70

4.3.3 常用变长编码76

4.4 离散平稳信源及其编码定理82

4.4.1 平稳信源的熵率及冗余度83

4.4.2 平稳信源的编码定理85

4.5 马尔可夫信源及其编码87

4.5.1 马尔可夫信源87

4.5.2 马尔可夫信源的编码90

习题93

5.1 信道容量96

第5章 离散无记忆信道的编码理论96

5.1.1 信道容量的定义和例子97

5.1.2 离散无记忆信道容量的有关性质99

5.1.3 某些简单情况下信道容量的计算104

5.1.4 转移概率可逆时信道容量的计算107

5.1.5 离散无记忆信道容量的迭代计算108

5.1.6 达到信道容量时输入输出字母概率分布的惟一性112

5.2 信道编码115

5.2.1 信道编码概述115

5.2.2 联合典型序列119

5.3 信道编码定理122

5.3.1 信道编码定理的证明122

5.3.2 Fano不等式和逆编码定理124

5.3.3 信源-信道联合编码127

5.4 高斯信道129

5.4.1 高斯信道容量129

5.4.2 高斯信道编码定理130

5.4.3 高斯信道编码定理的逆定理132

5.5 级联信道和并联信道的信道容量133

5.5.1 级联信道133

5.5.2 并联信道136

5.6 信道编码实例139

5.6.1 重复码139

5.6.2 Hamming码140

习题142

第6章 线性码145

6.1 线性分组码的定义及表示145

6.2 系统编码和校验矩阵147

6.3 系统编码及其最优译码的实现151

6.4 线性码的差错概率及纠错能力154

第7章 信源的率失真函数与熵压缩编码162

7.1 熵压缩编码和信源的率失真函数162

7.2 率失真函数的基本性质165

7.3 对离散信源求解率失真函数的迭代算法169

7.4 连续无记忆信源的信息率失真函数176

7.4.1 基本性质176

7.4.2 差值失真度量下率失真函数的下界178

7.4.3 差方失真度量下的率失真函数180

7.5 标量量化185

7.6 限失真信源编码定理187

习题192

第8章 最大熵原理与最小鉴别信息原理194

8.1 最大熵原理194

8.1.1 最大熵原理的提出194

8.1.2 最大熵原理的合理性196

8.1.3 最大熵谱估计199

8.2 鉴别信息200

8.2.1 鉴别信息的定义201

8.2.2 鉴别信息的性质203

8.3.1 最小鉴别信息原理207

8.3 最小鉴别信息原理207

8.3.2 独立分量分析208

习题209

第9章 组合信息与算法信息211

9.1 自适应统计编码211

9.2 组合信息213

9.2.1 基于组合的信息度量213

9.2.2 Fitingof通用编码215

9.3 算法信息218

9.3.1 Kolmogorov算法熵219

9.3.2 算法熵的不可计算性223

9.3.3 Lewpel-Ziv通用编码224

9.3.4 Kieffer-Yang通用编码225

习题226

第10章 密码学引论227

10.1 古典密码学227

10.1.1 古典密码举例228

10.1.2 古典密码分析230

10.2 基于信息论的密码学232

10.2.1 完全保密232

10.2.2 惟一解距离236

10.2.3 实用安全性238

10.3 数据加密标准(DES)238

10.3.1 DES的描述239

10.3.2 DES的讨论244

10.4 其他245

10.4.1 公开钥密码系统245

10.4.2 认证系统245

10.4.3 数字签名246

10.4.4 密钥的管理246

10.4.5 电子货币247

部分习题解答或提示249

参考文献251

热门推荐