书籍 机器学习从入门到入职  用SKLEARN与KERAS搭建人工智能模型的封面

机器学习从入门到入职 用SKLEARN与KERAS搭建人工智能模型PDF电子书下载

张威著

购买点数

20

出版社

出版时间

2020

ISBN

标注页数

0 页

PDF页数

474 页

图书目录

第1章 机器学习概述 1

1.1 什么是机器学习 2

1.2 人工智能的发展趋势 3

1.2.1 人工智能的发展程度 3

1.2.2 人工智能的应用 4

第2章 机器学习的准备工作 7

2.1 机器学习的知识准备 8

2.2 机器学习的环境准备 10

2.2.1 安装编译语言Python 10

2.2.2 安装包 11

2.2.3 安装适用于Python的集成开发环境 12

2.3 机器学习模型开发的工作流程 14

第3章 Sklearn概述 16

3.1 Sklearn的环境搭建与安装 17

3.2 Sklearn常用类及其结构 18

3.2.1 数据源、数据预处理及数据提取 19

3.2.2 模型建立 20

3.2.3 模型验证 21

3.2.4 模型调优 21

3.3 本章小结 22

第4章 Sklearn之数据预处理 23

4.1 数据预处理的种类 24

4.2 缺失值处理 24

4.3 数据的规范化 26

4.3.1 缩放规范化 26

4.3.2 标准化 29

4.3.3 范数规范化 31

4.4 非线性变换 34

4.4.1 二值化变换 34

4.4.2 分位数变换 34

4.4.3 幂变换 39

4.4.4 多项式变换 42

4.5 自定义预处理 44

4.6 非结构性数据预处理 45

4.7 文本数据处理 46

4.7.1 分词技术 46

4.7.2 对已提取数据的处理 47

4.7.3 文本的特征提取 52

4.8 图形的特征提取 57

第5章 Sklearn之建立模型(上) 59

5.1 监督学习概述 60

5.2 线性回归 61

5.2.1 最小二乘法 62

5.2.2 线性回归中的收敛方法 64

5.2.3 岭回归 65

5.2.4 LASSO回归 69

5.2.5 弹性网络回归 79

5.2.6 匹配追踪 80

5.2.7 多项式回归 84

5.3 广义线性模型 86

5.3.1 极大似然估计 87

5.3.2 最大后验估计 88

5.3.3 贝叶斯估计 89

5.3.4 二项式回归 91

5.3.5 逻辑回归 93

5.3.6 贝叶斯回归 94

5.4 稳健回归 97

5.4.1 随机样本一致法 98

5.4.2 泰尔-森估计 102

5.5 支持向量机 103

5.5.1 硬间隔和软间隔 104

5.5.2 核函数 106

5.6 高斯过程 110

5.7 梯度下降 115

5.8 决策树 117

5.8.1 特征选择 117

5.8.2 决策树的剪枝 121

5.9 分类 122

5.9.1 多类别分类 122

5.9.2 多标签分类 126

第6章 Sklearn之建立模型(下) 128

6.1 无监督学习概述 129

6.2 聚类 129

6.2.1 K-mean聚类 131

6.2.2 均值偏移聚类 136

6.2.3 亲和传播 139

6.2.4 谱聚类 143

6.2.5 层次聚类 151

6.2.6 DBSCAN聚类 155

6.2.7 BIRCH聚类 159

6.2.8 高斯混合模型 164

6.3 降维 168

6.3.1 主成因分析 169

6.3.2 独立成因分析 175

6.3.3 隐含狄利克雷分布 179

6.3.4 流形学习 185

6.3.5 多维度缩放 186

6.3.6 ISOMAP 189

6.3.7 局部线性嵌入 191

6.3.8 谱嵌入 195

第7章 Sklearn之模型优化 198

7.1 模型优化 199

7.2 模型优化的具体方法 199

7.2.1 训练样本对模型的影响 200

7.2.2 训练样本问题的解决方案 201

7.2.3 第三方采样库imbalanced-learn 203

7.3 过采样 205

7.3.1 随机过采样 205

7.3.2 合成少数类过采样技术 207

7.3.3 自适应综合过采样方法 210

7.4 欠采样 212

7.4.1 近丢失方法 212

7.4.2 编辑最邻近方法 216

7.4.3 Tomek链接移除 218

7.4.4 混合采样方法 219

7.5 调整类别权重 220

7.6 针对模型本身的调优 223

7.7 集成学习 228

7.7.1 投票分类器 229

7.7.2 套袋法 230

7.7.3 随机森林 232

7.7.4 提升法 234

7.7.5 自适应性提升法 235

7.7.6 梯度提升法 237

7.7.7 套袋法和提升法的比较 239

第8章 Keras主要API及架构介绍 241

8.1 Keras概述 242

8.1.1 为什么选择Keras 242

8.1.2 Keras的安装 243

8.2 序列模型和函数式模型 243

8.2.1 两种模型的代码实现 244

8.2.2 模型的其他API 248

8.3 Keras的架构 250

8.4 网络层概述 250

8.4.1 核心层 251

8.4.2 卷积层 252

8.4.3 池化层 253

8.4.4 局部连接层 255

8.4.5 循环层 257

8.4.6 嵌入层 259

8.4.7 融合层 259

8.4.8 高级激活层 261

8.4.9 规范化层 261

8.4.10 噪声层 261

8.4.11 层级包装器 262

8.5 配置项 265

8.5.1 损失函数 265

8.5.2 验证指标 268

8.5.3 初始化函数 269

8.5.4 约束项 271

8.5.5 回调函数 272

第9章 一个神经网络的迭代优化 279

9.1 神经网络概述 281

9.2 神经网络的初步实现 283

9.3 感知器层 284

9.3.1 梯度消失/爆炸问题 287

9.3.2 激活函数及其进化 288

9.3.3 激活函数的代码实现 294

9.3.4 批量规范化 295

9.4 准备训练模型 299

9.5 定义一个神经网络模型 301

9.6 隐藏层对模型的影响 306

9.7 关于过拟合的情况 310

9.7.1 规则化方法 311

9.7.2 Dropout方法 313

9.8 优化器 314

9.8.1 批量梯度下降 316

9.8.2 灵活的学习率 318

9.8.3 适应性梯度法 319

9.8.4 适应性差值法 320

9.8.5 均方差传播 322

9.8.6 Nesterov加速下降 324

9.8.7 Adam 325

9.8.8 优化器之间的对比 326

9.9 模型调优的其他途径 329

9.10 本章小结 331

第10章 卷积神经网络 333

10.1 卷积神经网络概述 335

10.1.1 局部感受场 335

10.1.2 共享权重和偏差 338

10.1.3 卷积层 339

10.1.4 池化层 342

10.1.5 卷积神经网络的代码实现 344

10.1.6 卷积神经网络的调优 348

10.2 常见的卷积神经网络 352

10.2.1 LeNet 352

10.2.2 AlexNet 356

10.2.3 VGGNet 359

10.2.4 残差网络 366

10.2.5 Inception网络模型 373

10.2.6 胶囊网络 378

10.2.7 结语 388

第11章 生成性对抗网络 389

11.1 生成性对抗网络概述 391

11.1.1 生成性对抗网络的原理 391

11.1.2 生成性对抗网络的代码实现 393

11.2 常见的生成性对抗网络 399

11.2.1 深度卷积生成性对抗网络 399

11.2.2 环境条件生成性对抗网络 406

11.3 自动编码器 411

11.3.1 自动编码器的代码实现 412

11.3.2 变分自动编码器 414

第12章 循环神经网络 420

12.1 词嵌入 422

12.1.1 Word2Vec 423

12.1.2 GloVe 428

12.1.3 词嵌入的代码实现 429

12.2 循环神经网络概述 430

12.2.1 简单循环神经网络单元 432

12.2.2 关于循环神经网络的梯度下降 433

12.2.3 长短期记忆单元 435

12.2.4 门控递归单元 443

12.2.5 双向循环神经网络 444

第13章 机器学习的入职准备 448

13.1 人工智能岗位及求职者的分布 449

13.1.1 机器学习的生态 449

13.1.2 应用场景 450

13.2 机器学习岗位的发展路径 454

13.2.1 机器学习岗位画像 454

13.2.2 面试考察什么 456

查看更多关于的内容

出版社其它书籍
本类热门
在线购买PDF电子书
下载此书RAR压缩包