发表于2024-11-24
包邮 神经网络与机器学习(原书第3版)|197697 pdf epub mobi txt 电子书 下载
书[0名0]: | 神经网络与 [1机1] 器[0学0]习(原书[0第0]3版)|197697 |
图书定价: | 79元 |
图书作者: | (加)Simon Haykin |
出版社: | [1机1] 械工业出版社 |
出版日期: | 2011/3/1 0:00:00 |
ISBN号: | 9787111324133 |
开本: | 16开 |
页数: | 572 |
版次: | 3-1 |
作者简介 |
Simon Haykin是[0国0]际电子电气工程界的著[0名0][0学0]者,加拿[0大0]皇家[0学0][0会0]院士,IEEE[0会0]士,于1953年获得英[0国0]伯明翰[0大0][0学0]博士[0学0]位,现任加拿[0大0]麦克马斯特[0大0][0学0]教授,在该校创办了通信研究实验室并长期担任主任。他曾经获得IEEE McNaughton奖章,在神经网络、通信、自适应滤波器等[0领0]域成果颇丰,著有多种标准教材。 |
内容简介 |
本书是关于神经网络的全面的、彻底的、可读性很强的、[亲斤]的论述。全书共15章,主要内容包括Rosenblatt感[0知0]器、通过回归建立模型、小均方算[0法0]、多层感[0知0]器、核方[0法0]和径向基函数网络、支持向量 [1机1] 、正则化理论、主分量分析、自组织映射、信息论[0学0]习模型、动态规划、神经动力[0学0]、动态系统状态估计的贝叶斯滤波等。 本书适合作为高等院校计算 [1机1] 相关专业研究生及本科生的教材,也可供相关[0领0]域的工程技术人员参考。 |
目录 |
出版者的话 译者序 前言 缩写和符号 术语 [0第0]0章导言1 0.1什么是神经网络1 0.2人类[0大0]脑4 0.3神经元模型7 0.4被看作有向图的神经网络10 0.5反馈11 0.6网络结构13 0.7[0知0]识表示14 0.8[0学0]习过程20 0.9[0学0]习任务22 0.10结束语27 注释和参考文献27 [0第0]1章Rosenblatt感[0知0]器28 1.1引言28 1.2感[0知0]器28 1.3感[0知0]器收敛定理29 1.4高斯环境下感[0知0]器与贝叶斯分类器的关系33 1.5计算 [1机1] 实验:模式分类36 1.6批量感[0知0]器算[0法0]38 1.7小结和讨论39 注释和参考文献39 习题40 [0第0]2章通过回归建立模型28 2.1引言41 2.2线性回归模型:初步考虑41 2.3参数向量的[0大0]后验估计42 2.4正则小二乘估计和MAP估计之间的关系46 2.5计算 [1机1] 实验:模式分类47 2.6小描述长度原则48 2.7固定样本[0大0]小考虑50 2.8工具变量方[0法0]53 2.9小结和讨论54 注释和参考文献54 习题55 [0第0]3章小均方算[0法0]56 3.1引言56 3.2LMS算[0法0]的滤波结构56 3.3无约束[0优0]化:回顾58 3.4维纳滤波器61 3.5小均方算[0法0]63 3.6用马尔可夫模型来描画LMS算[0法0]和维纳滤波器的偏差64 3.7朗之万方程:布朗运动的特点65 3.8Kushner直接平均[0法0]66 3.9小[0学0]习率参数下统计LMS[0学0]习理论67 3.10计算 [1机1] 实验Ⅰ:线性预测68 3.11计算 [1机1] 实验Ⅱ:模式分类69 3.12LMS算[0法0]的[0优0]点和局限71 3.13[0学0]习率退火方案72 3.14小结和讨论73 注释和参考文献74 习题74 [0第0]4章多层感[0知0]器77 4.1引言77 4.2一些预备[0知0]识78 4.3批量[0学0]习和在线[0学0]习79 4.4反向传播算[0法0]81 4.5异或问题89 4.6改善反向传播算[0法0]性能的试探[0法0]90 4.7计算 [1机1] 实验:模式分类94 4.8反向传播和微分95 4.9Hessian矩阵及其在在线[0学0]习中的规则96 4.10[0学0]习率的[0优0]退火和自适应控制98 4.11泛化102 4.12函数逼近104 4.13交叉验证107 4.14复杂度正则化和网络修剪109 4.15反向传播[0学0]习的[0优0]点和局限113 4.16作为[0优0]化问题看待的监督[0学0]习117 4.17卷积网络126 4.18非线性滤波127 4.19小规模和[0大0]规模[0学0]习问题131 4.20小结和讨论136 注释和参考文献137 习题138 [0第0]5章核方[0法0]和径向基函数网络144 5.1引言144 5.2模式可分性的Cover定理144 5.3插值问题148 5.4径向基函数网络150 5.5K-均值聚类152 5.6[0[0权0]0]向量的递归小二乘估计153 5.7RBF网络的混合[0学0]习过程156 5.8计算 [1机1] 实验:模式分类157 5.9高斯隐藏单元的解释158 5.10核回归及其与RBF网络的关系160 5.11小结和讨论162 注释和参考文献164 习题165 [0第0]6章支持向量 [1机1] 168 6.1引言168 6.2线性可分模式的[0优0][0超0]平面168 6.3不可分模式的[0优0][0超0]平面173 6.4使用核方[0法0]的支持向量 [1机1] 176 6.5支持向量 [1机1] 的设计178 6.6XOR问题179 6.7计算 [1机1] 实验:模式分类181 6.8回归:鲁棒性考虑184 6.9线性回归问题的[0优0]化解184 6.10表示定理和相关问题187 6.11小结和讨论191 注释和参考文献192 习题193 [0第0]7章正则化理论197 7.1引言197 7.2良态问题的Had [a0m0a0] rd条件198 7.3Tikho[0no0]v正则化理论198 7.4正则化网络205 7.5广义径向基函数网络206 7.6再论正则化小二乘估计209 7.7对正则化的附加要点211 7.8正则化参数估计212 7.9半监督[0学0]习215 7.10流形正则化:初步的考虑216 7.11可微流形217 7.12广义正则化理论220 7.13光谱图理论221 7.14广义表示定理222 7.15拉普拉斯正则化小二乘算[0法0]223 7.16用半监督[0学0]习对模式分类的实验225 7.17小结和讨论227 注释和参考文献228 习题229 [0第0]8章主分量分析232 8.1引言232 8.2自组织原则232 8.3自组织的特征分析235 8.4主分量分析:扰动理论235 8.5基于Hebb的[0大0]特征滤波器241 8.6基于Hebb的主分量分析247 8.7计算 [1机1] 实验:图像编码251 8.8核主分量分析252 8.9自然图像编码中的基本问题256 8.10核Hebb算[0法0]257 8.11小结和讨论260 注释和参考文献262 习题264 [0第0]9章自组织映射268 9.1引言268 9.2两个基本的特征映射模型269 9.3自组织映射270 9.4特征映射的性质275 9.5计算 [1机1] 实验Ⅰ:利用SOM解网格动力[0学0]问题280 9.6上下文映射281 9.7分层向量量化283 9.8核自组织映射285 9.9计算 [1机1] 实验Ⅱ:利用核SOM解点阵动力[0学0]问题290 9.10核SOM和相对熵之间的关系291 9.11小结和讨论293 注释和参考文献294 习题295 [0第0]10章信息论[0学0]习模型299 10.1引言299 10.2熵300 10.3[0大0]熵原则302 10.4互信息304 10.5相对熵306 10.6系词308 10.7互信息作为[0优0]化的目标函数310 10.8[0大0]互信息原则311 10.9[0大0]互信息和冗余减少314 10.10空间相干特征316 10.11空间非相干特征318 10.12[0独0]立分量分析320 10.13自然图像的稀疏编码以及与ICA编码的比较324 10.14[0独0]立分量分析的自然梯度[0学0]习326 10.15[0独0]立分量分析的[0大0]似然估计332 10.16盲源分离的[0大0]熵[0学0]习334 10.17[0独0]立分量分析的负熵[0大0]化337 10.18相关[0独0]立分量分析342 10.19速率失真理论和信息瓶颈347 10.20数据的[0优0]流形表达350 10.21计算 [1机1] 实验:模式分类354 10.22小结和讨论354 注释和参考文献356 习题361 [0第0]11章植根于统计力[0学0]的随 [1机1] 方[0法0]366 11.1引言366 11.2统计力[0学0]367 11.3马尔可夫链368 11.4Metropolis算[0法0]374 11.5模拟退火375 11.6Gibbs抽样377 11.7Boltzmann [1机1] 378 11.8logistic信度网络382 11.9深度信度网络383 11.10确定性退火385 11.11和EM算[0法0]的类比389 11.12小结和讨论390 注释和参考文献390 习题392 [0第0]12章动态规划396 12.1引言396 12.2马尔可夫决策过程397 12.3Bellman[0优0]准则399 12.4策略迭代401 12.5值迭代402 12.6逼近动态规划:直接[0法0]406 12.7时序差分[0学0]习406 12.8Q[0学0]习410 12.9逼近动态规划:非直接[0法0]412 12.10小二乘策略[0评0]估414 12.11逼近策略迭代417 12.12小结和讨论419 注释和参考文献421 习题422 [0第0]13章神经动力[0学0]425 13.1引言425 13.2动态系统426 13.3平衡状态的稳定性428 13.4吸引子432 13.5神经动态模型433 13.6作为递归网络范例的吸引子操作435 13.7Hopfield模型435 13.8Cohen-Grossberg定理443 13.9盒中脑状态模型445 13.10奇异吸引子和混沌448 13.11混沌过程的动态重构452 13.12小结和讨论455 注释和参考文献457 习题458 [0第0]14章动态系统状态估计的贝叶斯滤波461 14.1引言461 14.2状态空间模型462 14.3卡尔曼滤波器464 14.4发散现象及平方根滤波469 14.5扩展的卡尔曼滤波器474 14.6贝叶斯滤波器477 14.7数值积分卡尔曼滤波器:基于卡尔曼滤波器480 14.8粒子滤波器484 14.9计算 [1机1] 实验:扩展的卡尔曼滤波器和粒子滤波器对比[0评0]价490 14.10[0大0]脑功能建模中的 卡尔曼滤波493 14.11小结和讨论494 注释和参考文献496 习题497 [0第0]15章动态驱动递归网络501 15.1引言501 15.2递归网络体系结构502 15.3通用逼近定理505 15.4可控性和可观测性507 15.5递归网络的计算能力510 15.6[0学0]习算[0法0]511 15.7通过时间的反向传播512 15.8实时递归[0学0]习515 15.9递归网络的消失梯度519 15.10利用非线性逐次状态估计的递归网络监督[0学0]习框架521 15.11计算 [1机1] 实验:Mackay-Glass吸引子的动态重构526 15.12自适应考虑527 15.13实例[0学0]习:应用于神经控制的模型参考529 15.14小结和讨论530 注释和参考文献533 习题534 参考文献538 |