书籍 TENSORFLOW+PYTORCH深度学习  从算法到实战的封面

TENSORFLOW+PYTORCH深度学习 从算法到实战PDF电子书下载

刘子瑛编著

购买点数

20

出版社

出版时间

2019

ISBN

标注页数

0 页

PDF页数

372 页

图书目录

绪论 程序员为什么要学习机器学习 1

0.1 工业革命级的技术红利 2

0.2 中美两国为机器学习作背书 3

0.3 从编程思维向数据思维的进化 5

第1章 30分钟环境搭建速成 8

1.1 使用Anaconda搭建开发环境 9

1.1.1 Python语言的优势 9

1.1.2 安装Anaconda 9

1.1.3 在Anaconad环境下安装TensorFlow 10

1.1.4 在Anaconda环境下安装PyTorch 11

1.1.5 Anaconda环境下安装Keras 12

1.2 使用Python自带的开发环境 13

1.2.1 在Mac OS平台搭建深度学习开发环境 13

1.2.2 在Linux平台搭建深度学习开发环境 14

1.2.3 Windows系统下使用pip搭建环境 15

1.2.4 通过Virtualenv来管理Python环境 16

1.2.5 依赖包简介 22

1.3 从源代码搭建开发环境 23

1.3.1 编译TensorFlow 23

1.3.2 编译PyTorch 29

第2章 深度学习5-4-6速成法 33

2.1 计算图模型与计算框架 34

2.2 五步法构造基本模型 36

2.2.1 4种基本元素 37

2.2.2 6种基本层模型 37

2.2.3 过程化方法构造网络模型 38

2.2.4 函数式方法构造网络模型 39

2.2.5 模型的编译、训练、评估和预测 39

2.3 案例教程 40

2.3.1 解决实际问题三步法 41

2.3.2 独热(one-hot)编码 44

2.3.3 全连接神经网络编程 45

2.3.4 进化:卷积神经网络编程 51

2.4 5-4-6速成法学习PyTorch 57

2.4.1 PyTorch的建模过程 57

2.4.2 训练和验证 57

2.4.3 进阶:PyTorch卷积神经网络 62

2.5 5-4-6速成法学习TensorFlow 67

2.5.1 TensorFlow的建模过程 68

2.5.2 TensorFlow的训练、评估和预测 70

2.5.3 TensorFlow的完整代码 71

2.6 在TensorFlow中使用Keras 73

2.7 本章小结 74

第3章 张量与计算图 76

3.1 0维张量:标量 77

3.1.1 TensorFlow的数据类型 77

3.1.2 PyTorch的数据类型 79

3.1.3 标量算术运算 80

3.1.4 Tensor与NumPy类型的转换 82

3.2 计算图与流程控制 84

3.2.1 静态计算图与TensorFlow 84

3.2.2 动态计算图与PyTorch的流程控制 88

3.3 变量 90

3.3.1 TensorFlow的占位符与变量 90

3.3.2 TensorFlow变量的保存和加载 91

3.3.3 PyTorch的变量 93

第4章 向量与矩阵 94

4.1 1维张量:向量 95

4.1.1 快速生成向量的方法 95

4.1.2 向量的操作 96

4.1.3 向量计算 97

4.1.4 PyTorch的其他向量操作 99

4.2 2维张量:矩阵 99

4.2.1 矩阵初始化 99

4.2.2 矩阵的转置 103

4.2.3 矩阵运算 104

4.2.4 逆矩阵 107

4.2.5 PyTorch的其他矩阵功能 108

4.3 n维:张量 109

4.3.1 改变张量的形状 110

4.3.2 张量的拼接 111

4.3.3 读取某一维 126

第5章 高级矩阵编程 131

5.1 范数及其实现 132

5.1.1 欧几里得距离 132

5.1.2 范数的定义 132

5.1.3 范数的推广 133

5.2 迹运算 134

5.2.1 迹运算的定义 134

5.2.2 矩阵转置后迹不变 135

5.2.3 用迹运算定义Frobenius范数 136

5.3 矩阵分解 137

5.3.1 特征向量和特征值 137

5.3.2 特征分解 138

5.3.3 奇异值分解 139

5.3.4 Moore-Penrose广义逆 142

第6章 优化方法 144

6.1 梯度下降的基本原理 145

6.1.1 从画图说起 145

6.1.2 通过迭代求函数极值 147

6.1.3 梯度下降 148

6.2 高维条件下的梯度下降 151

6.2.1 进入第三维 152

6.2.2 高维引入的新问题 154

6.2.3 矩阵的梯度 155

6.3 PyTorch和TensorFlow中的梯度计算 155

6.3.1 PyTorch中的梯度 155

6.3.2 PyTorch自动求导进阶:函数与自变量的解耦 157

6.3.3 TensorFlow中的梯度 157

6.4 梯度下降案例教程 158

6.4.1 梯度下降在线性回归中的应用 158

6.4.2 PyTorch中的梯度下降 161

6.4.3 模块化的PyTorch线性回归写法 163

6.5 优化方法进阶 164

6.5.1 随机梯度下降 164

6.5.2 优化方法进化之一:动量方法 164

6.5.3 优化方法进化之二:自适应方法 165

6.5.4 自适应与动量结合 167

6.5.5 优化方法小结 169

第7章 深度学习基础 170

7.1 从回归到分类 171

7.1.1 值不重要,重要的是位置 171

7.1.2 二分类问题 172

7.2 深度学习简史 174

7.2.1 从机器学习流派说起 174

7.2.2 M-P神经元模型 175

7.2.3 感知机 175

7.2.4 人工神经网络第二次高潮和低谷 176

7.2.5 深度学习时代 177

第8章 基础网络结构:卷积网络 179

8.1 卷积的原理与计算 180

8.1.1 卷积原理 180

8.1.2 填充Padding 183

8.1.3 步幅Stride 184

8.1.4 卷积用TensorFlow实现 185

8.1.5 卷积的PyTorch实现 186

8.2 池化层 187

8.2.1 池化层原理 187

8.2.2 TensorFlow池化层编程 188

8.2.3 PyTorch池化层编程 189

8.2.4 平均池化 192

8.3 激活函数 193

8.3.1 ReLU 193

8.3.2 ReLU6 195

8.3.3 Leaky ReLU 195

8.3.4 ELU 196

8.3.5 SELU 197

8.3.6 PReLU 198

8.4 AlexNet 199

8.4.1 AlexNet的网络结构初探 199

8.4.2 AlexNet的创新点 202

8.4.3 AlexNet的完整搭建 202

8.4.4 AlexNet的演进 205

第9章 卷积网络图像处理进阶 207

9.1 小卷积核改进VGGNet 208

9.1.1 VGGNet的原理 208

9.1.2 VGGNet-A级网络 209

9.1.3 带LRN的VGGNet-A级网络 213

9.1.4 VGGNet-B级网络 214

9.1.5 1*1的卷积核的妙用 217

9.1.6 用数据来配置网络 219

9.2 GoogLeNet 220

9.2.1 Inception的结构 221

9.2.2 GoogLeNet的结构 222

9.2.3 Inception的演进 223

9.3 残差网络 225

9.3.1 残差网络 226

9.3.2 DenseNet 228

9.4 目标检测 230

9.4.1 传统图像识别方法与R-CNN算法 231

9.4.2 第一次改进:空间金字塔池化卷积网络 232

9.4.3 第二次改进:不要支持向量机分类 232

9.4.4 第三次改进:区域提案网络 233

9.4.5 语义分割 233

9.5 人脸识别 234

9.5.1 P-Net 234

9.5.2 R-Net 235

9.5.3 O-Net 236

第10章 基础网络结构:循环神经网络 240

10.1 循环神经网络原理 240

10.1.1 循环神经网络的结构 240

10.1.2 BPTT算法及其挑战 243

10.2 实用循环神经网络:LSTM 243

10.2.1 LSTM的原理 244

10.2.2 LSTM编程 244

10.3 LSTM案例教程 246

10.3.1 用LSTM来处理MNIST图像识别 246

10.3.2 用LSTM处理MNIST的完整代码 247

10.4 实用循环神经网络:GRU 250

10.4.1 GRU原理 250

10.4.2 GRU编程 250

10.5 双向循环神经网络 251

10.5.1 双向循环神经网络的搭建 252

10.5.2 双向神经网络的完整例程 253

10.6 将隐藏状态串联起来 254

10.6.1 带状态输入的模型 254

10.6.2 带状态输入的MNIST完整代码 257

第11章 RNN在自然语言处理中的应用 259

11.1 文本编码:从独热编码到词向量 260

11.2 Char-RNN算法 261

11.2.1 Char-RNN的概念 261

11.2.2 Char-RNN的原理 262

11.2.3 向量编码 262

11.2.4 随机选取一段测试文本 263

11.3 Char-RNN的训练 264

11.3.1 用于Char-RNN的LSTM网络 264

11.3.2 训练过程 265

11.4 Char-RNN的预测推理 266

11.4.1 温度的作用 266

11.4.2 温度的计算 267

11.4.3 生成部分的完整代码 268

11.5 Char-RNN完整模型 269

第12章 用JavaScript进行TensorFlow编程 273

12.1 TensorFlow js的简介和安装 274

12.1.1 TensorFlowjs的安装 274

12.1.2 编译TensorFlow js源代码 276

12.1.3 运行第一个TensorFlow js程序 277

12.1.4 TensorFlowjs用TypeScript写成 278

12.2 TensorFlow js的张量操作 279

12.2.1 TensorFlowjs的数据类型 279

12.2.2 TensorFlowjs张量的初始化 281

12.2.3 TensorFlowjs张量拼接 284

12.3 TensorFlow js的常用运算 288

12.3.1 算术运算 288

12.3.2 数学函数 290

12.3.3 矩阵运算 292

12.3.4 生成随机数 293

12.4 激活函数 296

12.4.1 sigmod和tanh 296

12.4.2 ReLU激活函数族 299

12.4.3 激活函数层的用法 302

12.5 TensorFlow.js变量 302

12.6 TensorFlow.js神经网络编程 303

12.6.1 卷积 304

12.6.2 池化层 307

12.7 TensorFlow.js实现完整模型 308

12.8 TensorFlow.js的后端接口 312

第13章 高级编程 317

13.1 GPU加速 317

13.1.1 PyTorch GPU版的安装 317

13.1.2 TensorFlow GPU版的安装 317

13.1.3 PyTorch中使用CUDA 317

13.1.4 PyTorch CUDA内存管理 318

13.2 生成对抗网络 319

13.2.1 生成模型 319

13.2.2 生成对抗网络 322

13.3 Attention机制 322

13.4 多任务学习 324

第14章 超越深度学习 327

14.1 自动机器学习AutoML 328

14.1.1 Auto-Sklearn的安装 328

14.1.2 依赖库的简要介绍 330

14.1.3 Auto-Sklearn编程 332

14.2 Autokeras 334

14.2.1 Autokeras的安装 335

14.2.2 Autokeras编程 339

14.3 Windows Subsystem for Linux 340

14.3.1 激活W SL功能 340

14.3.2 在微软商店中安装Linux 341

14.3.3 在W SL中使用图形 343

14.4 强化学习 344

14.5 强化学习编程 347

14.5.1 Gym和Baselines的安装 347

14.5.2 Baselines编程 348

14.6 下一步的学习方法 351

查看更多关于的内容

出版社其它书籍
本类热门
在线购买PDF电子书
下载此书RAR压缩包