| 机器学习 | ||
| 定价 | 88.00 | |
| 出版社 | 清华大学出版社 | |
| 版次 | 1 | |
| 出版时间 | 2016年01月 | |
| 开本 | 16 | |
| 作者 | 周志华 著 | |
| 装帧 | 平装 | |
| 页数 | ||
| 字数 | ||
| ISBN编码 | 9787302423287 | |
机器学习是计算机科学与人工智能的重要分支领域. 本书作为该领域的入门教材,在内容上尽可能涵盖机器学习基础知识的各方面. 全书共16 章,大致分为3 个部分:第1 部分(第1~3 章)介绍机器学习的基础知识;第2 部分(第4~10 章)讨论—些经典而常用的机器学习方法(决策树、神经网络、支持向量机、贝叶斯分类器、集成学习、聚类、降维与度量学习);第3 部分(第11~16 章)为进阶知识,内容涉及特征选择与稀疏学习、计算学习理论、半监督学习、概率图模型、规则学习以及强化学习等. 每章都附有习题并介绍了相关阅读材料,以便有兴趣的读者进—步钻研探索。
本书可作为高等院校计算机、自动化及相关专业的本科生或研究生教材,也可供对机器学习感兴趣的研究人员和工程技术人员阅读参考。
周志华,南京大学计算机系教授,ACM杰出科学家,IEEE Fellow, IAPR Fellow, IET/IEE Fellow, 中国计算机学会会士。国家杰出青年科学基金获得者、长江学者特聘教授。先后担任多种SCI(E)期刊执行主编、副主编、副编辑、编委等。中国计算机学会人工智能与模式识别专业委员会主任,中国人工智能学会机器学习专业委员会主任,IEEE计算智能学会数据挖掘技术委员会副主席。
目录
第1章 1
1.1 引言 1
1.2 基本术 2
1.3 假设空间 4
1.4 归纳偏好 6
1.5 发展历程 10
1.6 应用现状 13
1.7 阅读材料 16
习题 19
参考文献 20
休息—会儿 22
第2章 模型评估与选择 23
2.1 经验误差与过拟合 23
2.2 评估方法 24
2.2.1 留出法 25
2.2.2 交叉验证法 26
2.2.3 自助法 27
2.2.4 调参与zui终模型 28
2.3 性能度量 28
2.3.1 错误率与精度 29
2.3.2 查准率、查全率与F1 30
2.3.3 ROC与AUC 33
2.3.4 代价敏感错误率与代价曲线 35
2.4 比较检验 37
2.4.1 假设检验 37
2.4.2 交叉验证t检验 40
2.4.3 McNemar检验 41
2.4.4 Friedman检验与后续检验 42
2.5 偏差与方差 44
2.6 阅读材料 46
习题 48
参考文献 49
休息—会儿 51
第3章 线性模型 53
3.1 基本形式 53
3.2 线性回归 53
3.3 对数几率回归 57
3.4 线性判别分析 60
3.5 多分类学习 63
3.6 类别不平衡问题 66
3.7 阅读材料 67
习题 69
参考文献 70
休息—会儿 72
第4章 决策树 73
4.1 基本流程 73
4.2 划分选择 75
4.2.1 信息增益 75
4.2.2 增益率 77
4.2.3 基尼指数 79
4.3 剪枝处理 79
4.3.1 预剪枝 80
4.3.2 后剪枝 82
4.4 连续与缺失值 83
4.4.1 连续值处理 83
4.4.2 缺失值处理 85
4.5 多变量决策树 88
4.6 阅读材料 92
习题 93
参考文献 94
休息—会儿 95
第5章 神经网络 97
5.1 神经元模型 97
5.2 感知机与多层网络 98
5.3 误差逆传播算法 101
5.4 全局zui小与局部极小 106
5.5 其他常见神经网络 108
5.5.1 RBF网络 108
5.5.2 ART网络 108
5.5.3 SOM网络 109
5.5.4 级联相关网络 110
5.5.5 Elman网络 111
5.5.6 Boltzmann机 111
5.6 深度学习 113
5.7 阅读材料 115
习题 116
参考文献 117
休息—会儿 120
第6章 支持向量机 121
6.1 间隔与支持向量 121
6.2 对偶问题 123
6.3 核函数 126
6.4 软间隔与正则化 129
6.5 支持向量回归 133
6.6 核方法 137
6.7 阅读材料 139
习题 141
参考文献 142
休息—会儿 145
第7章 贝叶斯分类器 147
7.1 贝叶斯决策论 147
7.2 极大似然估计 149
7.3 朴素贝叶斯分类器 150
7.4 半朴素贝叶斯分类器 154
7.5 贝叶斯网 156
7.5.1 结构 157
7.5.2 学习 159
7.5.3 推断 161
7.6 EM算法 162
7.7 阅读材料 164
习题 166
参考文献 167
休息—会儿 169
第8章 集成学习 171
8.1 个体与集成 171
8.2 Boosting 173
8.3 Bagging与随机森林 178
8.3.1 Bagging 178
8.3.2 随机森林 179
8.4 结合策略 181
8.4.1 平均法 181
8.4.2 投票法 182
8.4.3 学习法 183
8.5 多样性 185
8.5.1 误差--分歧分解 185
8.5.2 多样性度量 186
8.5.3 多样性增强 188
8.6 阅读材料 190
习题 192
参考文献 193
休息—会儿 196
第9章 聚类 197
9.1 聚类任务 197
9.2 性能度量 197
9.3 距离计算 199
9.4 原型聚类 202
9.4.1 k均值算法 202
9.4.2 学习向量量化 204
9.4.3 高斯混合聚类 206
9.5 密度聚类 211
9.6 层次聚类 214
9.7 阅读材料 217
习题 220
参考文献 221
休息—会儿 224
第10章 降维与度量学习 225
10.1 k近邻学习 225
10.2 低维嵌入 226
10.3 主成分分析 229
10.4 核化线性降维 232
10.5 流形学习 234
10.5.1 等度量映射 234
10.5.2 局部线性嵌入 235
10.6 度量学习 237
10.7 阅读材料 240
习题 242
参考文献 243
休息—会儿 246
第11章 特征选择与稀疏学习 247
11.1 子集搜索与评价 247
11.2 过滤式选择 249
11.3 包裹式选择 250
11.4 嵌入式选择与L$_1$正则化 252
11.5 稀疏表示与字典学习 254
11.6 压缩感知 257
11.7 阅读材料 260
习题 262
参考文献 263
休息—会儿 266
第12章 计算学习理论 267
12.1 基础知识 267
12.2 PAC学习 268
12.3 有限假设空间 270
12.3.1 可分情形 270
12.3.2 不可分情形 272
12.4 VC维 273
12.5 Rademacher复杂度 279
12.6 稳定性 284
12.7 阅读材料 287
习题 289
参考文献 290
休息—会儿 292
第13章 半监督学习 293
13.1 未标记样本 293
13.2 生成式方法 295
13.3 半监督SVM 298
13.4 图半监督学习 300
13.5 基于分歧的方法 304
13.6 半监督聚类 307
13.7 阅读材料 311
习题 313
参考文献 314
休息—会儿 317
第14章 概率图模型 319
14.1 隐马尔可夫模型 319
14.2 马尔可夫随机场 322
14.3 条件随机场 325
14.4 学习与推断 328
14.4.1 变量消去 328
14.4.2 信念传播 330
14.5 近似推断 331
14.5.1 MCMC采样 331
14.5.2 变分推断 334
14.6 话题模型 337
14.7 阅读材料 339
习题 341
参考文献 342
休息—会儿 345
第15章 规则学习 347
15.1 基本概念 347
15.2 序贯覆盖 349
15.3 剪枝优化 352
15.4 —阶规则学习 354
15.5 归纳逻辑程序设计 357
15.5.1 zui小—般泛化 358
15.5.2 逆归结 359
15.6 阅读材料 363
习题 365
参考文献 366
休息—会儿 369
第16章 强化学习 371
16.1 任务与奖赏 371
16.2 $K$-摇臂赌博机 373
16.2.1 探索与利用 373
16.2.2 $epsilon $-贪心 374
16.2.3 Softmax 375
16.3 有模型学习 377
16.3.1 策略评估 377
16.3.2 策略改进 379
16.3.3 策略迭代与值迭代 381
16.4 免模型学习 382
16.4.1 蒙特卡罗强化学习 383
16.4.2 时序差分学习 386
16.5 值函数近似 388
16.6 模仿学习 390
16.6.1 直接模仿学习 391
16.6.2 逆强化学习 391
16.7 阅读材料 393
习题 394
参考文献 395
休息—会儿 397
附录 399
A 矩阵 399
B 优化 403
C 概率分布 409
后记 417
索引 419
我是一位在业余时间学习机器学习的爱好者,之前也尝试过几本不同的书籍,但总感觉在理解上有些隔阂。直到我遇到了这本《机器学习》,我才真正体会到什么叫做“庖丁解牛”。作者的叙述风格非常独特,既有严谨的学术大家的风范,又充满了循循善诱的教育智慧。他善于用生活中常见的例子来类比复杂的机器学习概念,这使得抽象的理论变得生动有趣,也更容易被理解。比如,在解释“正则化”的时候,作者用“约束运动员的训练强度,避免过度疲劳导致伤病”来比喻,这个例子非常贴切,让我一下子就明白了正则化的核心作用。而且,书中在介绍每一种算法时,都会站在一个更高的维度,去分析它在整个机器学习领域中的定位和价值,而不是孤立地讲解。这种宏观的视角,让我能够更好地把握机器学习的整体图景,也更有信心去应对未来的学习和挑战。这本书真的让我感受到了知识的力量,也让我对人工智能的未来充满了期待。
评分这本《机器学习》真是让我大开眼界!之前对机器学习的理解一直停留在一些零散的概念上,比如神经网络、决策树之类的,但总觉得缺乏一个系统性的框架。这本书正好填补了我的空白。作者从最基础的数学概念讲起,一点点构建起整个机器学习的理论体系,这一点我非常欣赏。不会像有些书上来就抛出一堆公式,让人摸不着头脑。它用了大量的例子来解释抽象的概念,比如在讲到“过拟合”的时候,举了一个考试“死记硬背”的例子,我瞬间就明白了。而且,书中提到的算法,比如支持向量机,不仅仅是介绍了原理,还讲了如何选择核函数、调整参数,这些实操性的东西对于想动手实践的人来说简直是宝藏。我特别喜欢它在介绍各个算法时,都会先铺垫背景,说明为什么需要这个算法,它解决了什么问题,然后再深入讲解。这种循序渐进的方式,让我感觉学起来不那么吃力,也更容易理解算法之间的联系和区别。这本书的编排逻辑非常清晰,章节之间的过渡也很自然,读起来就像是在听一位经验丰富的老师在讲课,条理分明,逻辑严谨。
评分作为一名对人工智能领域一直抱有浓厚兴趣的读者,我一直在寻找一本能够深入浅出、又兼具深度与广度的中文教材。这本《机器学习》简直就是我梦寐以求的那一本。它不仅仅是一本枯燥的技术手册,更像是一部引人入胜的学术探索之旅。作者在梳理经典机器学习算法时,并没有止步于表面的描述,而是深入剖析了其背后的数学原理和统计学基础,同时巧妙地融入了其在人工智能发展史中的地位和演进。这一点让我尤其震撼,它让我在学习算法本身的同时,也对整个AI技术的发展脉络有了更深刻的认识。更难得的是,书中对一些前沿问题的探讨也相当有见地,虽然篇幅可能不如基础算法那样详尽,但其点拨性的论述足以激发读者进一步的思考和探索。我个人认为,这本书最吸引我的地方在于它所传递的一种严谨的学术态度和科学的思维方式。它鼓励读者去质疑、去验证,而不是盲目接受。这种潜移默化的影响,远比单纯的技术知识传递要宝贵得多。
评分我是一名在校大学生,正在准备毕业设计,方向就选了机器学习。之前看过不少网络上的零散教程,但总觉得知识点不连贯,很多时候遇到问题就卡住了。这本书给我带来的最大帮助在于它提供了一个完整的知识体系。从最基础的模型评估,到各种监督学习、无监督学习算法,再到一些进阶的主题,它都进行了系统性的讲解。我印象特别深的是关于“偏差-方差权衡”这一部分的阐述,作者用非常形象的比喻,比如“新手射箭”和“老手射箭”,清晰地解释了偏差和方差的概念以及它们对模型性能的影响。这让我一下子就抓住了模型优化的关键。而且,书中给出的公式推导过程也非常详尽,虽然有时候需要花点时间去消化,但最终理解之后,那种豁然开朗的感觉是无与伦比的。对于我这样的学生来说,这本书不仅仅是学习工具,更是激发我学习动力和研究兴趣的源泉。
评分不得不说,这本《机器学习》是我近几年来读过最扎实、最有分量的技术类书籍之一。它对于机器学习核心概念的阐释,堪称典范。从模型选择的原则,到各种算法的优缺点分析,再到实际应用中的注意事项,作者都处理得恰到好处。我尤其欣赏它在介绍一些相对复杂的算法时,能够兼顾理论的深度和工程的可操作性。例如,在讲解集成学习时,它不仅介绍了Bagging和Boosting的基本思想,还详细讨论了Random Forest和Gradient Boosting等具体模型,并且提供了相应的优化策略。这对于我这样的实践者来说,非常有价值。书中对数学原理的运用也十分精准,但并没有让数学公式成为阅读的障碍,而是将它们巧妙地融入到概念的解释和算法的推导中,使得读者在掌握理论的同时,也能建立起扎实的数学基础。这本书给我带来的提升是全方位的,它不仅让我掌握了机器学习的知识,更重要的是,它教会了我如何去思考问题,如何去构建一个有效的机器学习解决方案。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等,本站所有链接都为正版商品购买链接。
© 2025 windowsfront.com All Rights Reserved. 静流书站 版权所有