出版时间:2009-3 出版社:电子工业出版社 作者:Vladimir N.Vapnik 页数:559 字数:934000 译者:许建华,张学工
Tag标签:无
内容概要
本书的创立者是Vladimir N. Vapnik。统计学习理论是研究利用经验数据进行机器学习的一种一般理论,属于计算机科学、模式识别和应用统计学相交叉与结合的范畴。统计学习理论的基本内容诞生于20世纪60~70年代,到90年代中期发展到比较成熟并受到世界机器学习界的广泛重视,其核心内容反映在Vapnik的两部重要著作中,本书即是其中一部,另一部是“The Nature of Statistical Learning Theory”(《统计学习理论的本质》)。 由于较系统地考虑了有限样本的情况,统计学习理论与传统统计学理论相比有更好的实用性,在这一理论下发展出的支持向量机(SVM)方法以其有限样本下良好的推广能力而备受重视。 本书是对统计学习理论和支持向量机方法的全面、系统、详尽的阐述,是各领域中研究和应用机器学习理论与方法的科研工作者和研究生的重要参考资料。
作者简介
VIadimir N.Vaonik,Vapnik于1990年加入美国AT&T贝尔实验室,现仍担任顾问,1995年起任英国RoyalHolloway大学计算机和统计学教授。Vapnik教授从事计算机科学、理论与应用统计学研究已有30多年,发表了7部学术著作和上百篇研究论文。他的主要学术成就是研究发展了一套基于经
书籍目录
引论:归纳和统计推理问题 0.1 统计学中的学习理论体系 O.2 统计推理的两种方法:特殊方法(参数推理)和通用方法(非参数推理) 0.3 参数方法的体系 O.4 参数体系的缺点 0.5 经典体系后的发展 0.6 复兴阶段 0.7 Glivenko—Cantelli—Kolmogomv理论的推广 O.8 结构风险最小化原则 0.9 小样本集推理的主要原则 0.10 本书的要点第一部分 学习和推广性理论 第1章 处理学习问题的两种方法 1.1 基于实例学习的一般模型 1.2 最小化经验数据风险泛函的问题 1.3 模式识别问题 1.4 回归估计问题 1.5 解释间接测量结果的问题 1.6 密度估计问题(Fisher-Wald表达) 1.7 基于经验数据最小化风险泛函的归纳原则 1.8 解函数估计问题的经典方法 1.9 随机对象的识别:密度和条件密度估计 1.10 解近似确定性积分方程的问题 1.11 Glivenko—Cantelli定理 1.12 不适定问题 1.13 学习理论的结构 第1章附录 解不适定问题的方法 A1.1 解算子方程问题 A1.2 Tikhonov意义下的适定问题 A1.3 正则化方法 第2章 概率测度估计与学习问题 2.1 随机实验的概率模型 2.2 统计学的基本问题 2.3 估计一致收敛于未知概率测度的条件 2.4 部分一致收敛性和Glivenko.Cantelli定理的推广 2.5 在概率测度估计一致收敛的条件下最小化风险泛函 2.6 在概率测度估计部分一致收敛的条件下最小化风险泛函 2.7 关于概率测度估计收敛方式和学习问题表达的评述 第3章 经验风险最小化原则一致性的条件 3.1 一致性的经典定义 3.2 严格(非平凡)一致性的定义 3.3 经验过程 3.4 学习理论的关键定理(关于等价性的定理) 3.5 关键定理的证明 3.6 最大似然方法的严格一致性 3.7 频率一致收敛于概率的充分必要条件 3.8 有界实函数集均值一致收敛于期望的充分必要条件 3.9 无界函数集均值一致收敛于期望的充分必要条件 3.10 Kant的划分问题和Popper的不可证伪学说 3.11 不可证伪性定理 3.12 一致单边收敛性经验风险最小化原则和一致性的条件 3.13 学习理论的三个里程碑 第4章 指示损失函数风险的界 4.1 最简单模型的界:悲观情况 4.2 最简单模型的界:乐观情况 4.3 最简单模型的界:一般情况 4.4 基本不等式:悲观情况 4.5 定理4.1的证明 4.6 基本不等式:一般情况 4.7 定理4.2的证明 4.8 主要的非构造性的界 4.9 VC维 4.10 定理4.3的证明 4.11 不同函数集的VC维的例子 第4章附录 关于ERM原则风险的下界 第5章 实损失函数风险的界 第6章 结构风险最小化原则 第6章附录 基于间接测量的函数估计 第7章 随机不适定问题 第8章 估计给定点上的函数值第二部分 函数的支持向量估计 第9章 感知器及其推广 第10章 估计指示函数的支持向量方法 第11章 估计实函数的支持向量方法 第12章 模式识别的支持向量机 第13章 函数逼近、回归估计和信号处理的支持向量机第三部分 学习理论的统计学基础 第14章 频率一致收敛于概率的充分必要条件 第15章 均值一致收敛于期望的充分必要条件 第16章 均值一致单边收敛于期望的充分必要条件注释与参考文献评述参考文献中英文术语对照表
章节摘录
第一部分 学习和推广性理论 第1章 处理学习问题的两种方法 学习问题是指依据经验数据选取所期望的依赖关系的问题,在本章中我们考察两种处理学习问题的方法。 第一种方法基于所选函数的品质可以用风险泛函来评估这一思路。在这种情况下,从给定函数集中选取逼近函数就是基于经验数据最小化风险泛函的问题。这是一个非常一般性的问题。它存在于许多统计学问题中。在本书中我们考察其中3个问题:模式识别、回归估计和密度估计。 处理学习问题的第二种方法基于估计所期望的随机依赖关系(密度、条件密度和条件概率)。在仅已知方程某些成分的近似值的情况下,这种方法需要解积分方程(确定依赖关系)。利用估计出的随机依赖关系,也可以解决模式识别和回归估计问题。然而,解积分方程得到的函数能够提供比这些问题本身所需的更多的细节。我们为这些细节付出的代价是必须解不适定问题。 1.1 基于实例学习的一般模型 现在考察下列寻找函数依赖关系的模型,我们称之为从实例学习的模型。
图书封面
图书标签Tags
无
评论、评分、阅读与下载