图书介绍

机器翻译2025|PDF|Epub|mobi|kindle电子书版本百度云盘下载

机器翻译
  • 李沐,刘树杰,张冬冬,周明 著
  • 出版社: 北京:高等教育出版社
  • ISBN:9787040502435
  • 出版时间:2018
  • 标注页数:223页
  • 文件大小:27MB
  • 文件页数:236页
  • 主题词:机器翻译

PDF下载


点此进入-本书在线PDF格式电子书下载【推荐-云解压-方便快捷】直接下载PDF格式图书。移动端-PC端通用
种子下载[BT下载速度快]温馨提示:(请使用BT下载软件FDM进行下载)软件下载地址页直链下载[便捷但速度慢]  [在线试读本书]   [在线获取解压码]

下载说明

机器翻译PDF格式电子书版下载

下载的文件为RAR压缩包。需要使用解压软件进行解压得到PDF格式图书。

建议使用BT下载工具Free Download Manager进行下载,简称FDM(免费,没有广告,支持多平台)。本站资源全部打包为BT种子。所以需要使用专业的BT下载软件进行下载。如BitComet qBittorrent uTorrent等BT下载工具。迅雷目前由于本站不是热门资源。不推荐使用!后期资源热门了。安装了迅雷也可以迅雷进行下载!

(文件页数 要大于 标注页数,上中下等多册电子书除外)

注意:本站所有压缩包均有解压码: 点击下载压缩包解压工具

图书目录

第一章 绪论1

1.1 机器翻译概述2

1.1.1 机器翻译定义2

1.1.2 机器翻译简史2

1.1.3 机器翻译方法6

1.1.4 机器翻译分析及展望11

1.2 机器翻译的应用13

1.2.1 文本翻译13

1.2.2 语音翻译14

1.2.3 应用扩展15

1.3 本书章节总览17

参考文献20

第二章 机器翻译语料和评测22

2.1 机器翻译语料23

2.1.1 单语语料23

2.1.2 双语语料24

2.1.3 语料获取24

2.1.4 语料处理28

2.2 机器翻译评测29

2.2.1 人工评测29

2.2.2 自动评测30

2.2.3 评测活动34

参考文献35

第三章 统计机器翻译基础37

3.1 统计机器翻译简介38

3.1.1 统计机器翻译系统框架38

3.1.2 统计机器翻译基本流程39

3.2 统计机器翻译建模40

3.2.1 噪声-信道模型40

3.2.2 对数-线性模型42

3.2.3 模型训练方法43

3.3 语言模型45

3.3.1 n元文法语言模型定义46

3.3.2 语言模型的平滑47

3.3.3 语言模型的评价指标49

3.4 翻译模型50

3.4.1 词汇翻译模型50

3.4.2 短语翻译模型58

3.5 调序模型60

3.5.1 基于跳转距离的调序模型60

3.5.2 词汇化调序模型61

3.5.3 基于句法的调序模型62

3.6 扩展阅读64

参考文献65

第四章 统计机器翻译系统模型71

4.1 基于短语的统计机器翻译模型72

4.1.1 噪声-信道模型短语翻译模型72

4.1.2 对数-线性模型短语翻译模型72

4.1.3 解码74

4.2 基于形式文法的统计机器翻译模型81

4.2.1 基于反向转录文法的统计机器翻译模型82

4.2.2 基于层次化短语的统计机器翻译模型83

4.3 基于句法的统计机器翻译系统模型86

4.3.1 树到串的翻译模型86

4.3.2 串到树的翻译模型87

4.4 多系统融合92

4.4.1 句子级系统融合92

4.4.2 短语级系统融合93

4.4.3 词级系统融合94

4.5 领域自适应96

4.5.1 基于数据选择的领域自适应97

4.5.2 基于自学习的领域自适应98

4.5.3 基于上下文信息的领域自适应98

4.6 统计机器翻译开源工具99

4.7 扩展阅读100

参考文献101

第五章 自然语言处理中的深度学习基础106

5.1 深度学习基础107

5.1.1 简介107

5.1.2 感知机108

5.1.3 多层感知机109

5.1.4 激活函数111

5.1.5 反向传播算法113

5.2 神经网络学习算法117

5.2.1 随机梯度下降算法117

5.2.2 基于动量的随机梯度下降算法119

5.2.3 AdaGrad算法120

5.2.4 RMSProp算法121

5.2.5 AdaDelta算法122

5.2.6 Adam算法123

5.2.7 不同参数更新方法的比较123

5.3 自然语言处理中常用的神经网络模型124

5.3.1 前馈神经网络125

5.3.2 循环神经网络129

5.3.3 长短时记忆网络133

5.3.4 深层循环神经网络137

5.3.5 卷积神经网络138

5.3.6 通用词嵌入143

5.4 扩展阅读147

5.5 词汇缩写详解149

参考文献149

第六章 神经机器翻译153

6.1 简单的神经网络机器翻译模型154

6.2 神经联合模型156

6.2.1 从语言模型到联合模型156

6.2.2 基于神经网络的联合模型157

6.2.3 基于神经网络的联合模型的训练159

6.2.4 联合模型解码速度的优化160

6.3 基于序列转换的神经机器翻译161

6.3.1 编码器-解码器框架161

6.3.2 编码器及其构造163

6.3.3 其他方式的编码器164

6.3.4 解码器及其构造167

6.4 注意力模型168

6.4.1 基本序列转换模型的困难169

6.4.2 注意力网络170

6.4.3 匹配函数172

6.4.4 局部匹配与全局匹配173

6.5 卷积串到串模型174

6.5.1 卷积编码器和解码器174

6.5.2 多步注意力机制176

6.6 完全基于注意力网络的神经翻译模型177

6.6.1 基于注意力网络的编码器和解码器177

6.6.2 分组(multi-head)注意力网络179

6.6.3 位置编码(positional encoding)180

6.6.4 自注意力网络性能分析181

6.7 参数正则化182

6.7.1 L1/L2正则化182

6.7.2 maxout和dropout正则化183

6.8 神经机器翻译解码186

6.8.1 贪心搜索(greedy search)186

6.8.2 束搜索(beam search)187

6.8.3 集合解码(ensemble decoding)188

6.9 神经机器翻译模型的训练189

6.10 扩展阅读191

6.11 本章小结192

参考文献193

第七章 前沿课题196

7.1 基于句法的神经机器翻译197

7.2 并行化训练199

7.2.1 数据并行化199

7.2.2 模型并行化203

7.3 神经机器翻译的快速解码技术204

7.3.1 网络预计算204

7.3.2 参数的量化205

7.3.3 受限词表优化205

7.4 注意力模型的改进206

7.4.1 覆盖度和能产度206

7.4.2 循环注意力网络209

7.5 神经机器翻译的可伸缩性210

7.5.1 近似softmax函数210

7.5.2 未登录词处理211

7.5.3 基于词根分解的开放词汇表211

7.6 单语数据在神经机器翻译中的应用213

7.6.1 独立的神经语言模型213

7.6.2 往返翻译(back translation)215

7.6.3 联合训练(joint training)215

7.6.4 强化学习在神经机器翻译中的应用216

7.6.5 生成对抗网络218

7.7 扩展阅读218

7.8 本章小结219

参考文献219

热门推荐