-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
統計學習理論 版權信息
- ISBN:9787121258756
- 條形碼:9787121258756 ; 978-7-121-25875-6
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
統計學習理論 本書特色
統計學習理論是研究利用經驗數據進行機器學習的一種一般理論,屬于計算機科學、模式識別和應用統計學相交叉與結合的范疇,其主要創立者是本書作者。統計學習理論基本內容誕生于20世紀60~70年代,到90年代中期發展到比較成熟并受到世界機器學習界的廣泛重視,其核心內容反映在vapnik的兩部重要著作中,本書即是其中一部,另一部是《統計學習理論的本質》。 由于較系統地考慮了有限樣本的情況,統計學習理論與傳統統計學理論相比有更好的實用性,在該理論下發展出的支持向量機方法以其有限樣本下良好的推廣能力而備受重視。
統計學習理論 內容簡介
統計學習理論是研究利用經驗數據進行機器學習的一種一般理論,屬于計算機科學、模式識別和應用統計學相交叉與結合的范疇,其主要創立者是本書作者。統計學習理論基本內容誕生于20世紀60~70年代,到90年代中期發展到比較成熟并受到世界機器學習界的廣泛重視,其核心內容反映在Vapnik的兩部重要著作中,本書即是其中一部,另一部是《統計學習理論的本質》。 由于較系統地考慮了有限樣本的情況,統計學習理論與傳統統計學理論相比有更好的實用性,在該理論下發展出的支持向量機方法以其有限樣本下良好的推廣能力而備受重視。
統計學習理論 目錄
0.1 統計學中的學習理論體系
0.2 統計推理的兩種方法:特殊方法(參數推理)和通用方法(非參數推理)
0.3 參數方法的體系
0.4 參數體系的缺點
0.5 經典體系后的發展
0.6 復興階段
0.7 glivenko-cantelli-kolmogorov理論的推廣
0.8 結構風險*小化原則
0.9 小樣本集推理的主要原則
0.10 本書的要點
**部分 學習和推廣性理論
第1章 處理學習問題的兩種方法
1.1 基于實例學習的一般模型
1.2 *小化經驗數據風險泛函的問題
1.3 模式識別問題
1.4 回歸估計問題
1.5 解釋間接測量結果的問題
1.6 密度估計問題(fisher-wald表達)
1.7 基于經驗數據*小化風險泛函的歸納原則
1.8 解函數估計問題的經典方法
1.9 隨機對象的識別:密度和條件密度估計
1.10 解近似確定性積分方程的問題
1.11 clivenko-cantelli定理
1.12 不適定問題
1.13 學習理論的結構
第1章附錄 解不適定問題的方法
a1.1 解算子方程問題
a1.2 tikhonov意義下的適定問題
a1.3 正則化方法
第2章 概率測度估計與學習問題
2.1 隨機實驗的概率模型
2.2 統計學的基本問題
2.3 估計一致收斂于未知概率測度的條件
2.4 部分一致收斂性和glivenko-cantelli定理的推廣
2.5 在概率測度估計一致收斂的條件下*小化風險泛函
2.6 在概率測度估計部分一致收斂的條件下*小化風險泛函
2.7 關于概率測度估計收斂方式和學習問題表達的評述
第3章 經驗風險*小化原則一致性的條件
3.1 一致性的經典定義
3.2 嚴格(非平凡)一致性的定義
3.3 經驗過程
3.4 學習理論的關鍵定理(關于等價性的定理)
3.5 關鍵定理的證明
3.6 *大似然方法的嚴格一致性
3.7 頻率一致收斂于概率的充分必要條件
3.8 有界實函數集均值一致收斂于期望的充分必要條件
3.9 無界函數集均值一致收斂于期望的充分必要條件
3.10 kant的劃分問題和popper的不可證偽學說
3.11 不可證偽性定理
3.12 一致單邊收斂性經驗風險*小化原則和一致性的條件
3.13 學習理論的三個里程碑
第4章 指示損失函數風險的界
4.1 *簡單模型的界:悲觀情況
4.2 *簡單模型的界:樂觀情況
4.3 *簡單模型的界:一般情況
4.4 基本不等式:悲觀情況
4.5 定理4.1的證明
4.6 基本不等式:一般情況
4.7 定理4.2的證明
4.8 主要的非構造性的界
4.9 vc維
4.10 定理4.3的證明
4.11 不同函數集的vc維的例子
4.12 關于學習機器推廣能力的界的評述
4.13 兩個等分樣本子集上頻率差的界
第4章附錄 關于erm原則風險的下界
a4.1 統計推理中的兩種策略
a4.2 學習問題的*小*大損失策略
a4.3 經驗風險*小化原則的*大損失的上界
a4.4 樂觀情形下*小*大損失策略的下界
a4.5 悲觀情形下*小*大損失策略的下界
第5章 實損失函數風險的界
5.1 *簡單模型的界:悲觀情形
5.2 實函數集的容量
5.3 一般模型的界:悲觀情形
5.4 基本不等式
5.5 一般模型的界:普遍情形
5.6 一致相對收斂的界
5.7 無界損失函數集中風險*小化問題的先驗信息
5.8 無界非負函數集的風險的界
5.9 樣本選擇與野值問題
5.10 界理論的主要結果
第6章 結構風險*小化原則
6.1 結構風險*小化歸納原則的構架
6.2 *小描述長度和結構風險*小化歸納原則
6.3 結構風險*小化原則的一致性與關于收斂速率的漸近界
6.4 回歸估計問題的界
6.5 函數逼近問題
6.6 局部風險*小化問題
第6章 附錄 基于間接測量的函數估計
a6.1 估計間接測量結果的問題
a6.2 關于利用間接測量估計函數的定理
a6.3 定理的證明
第7章 隨機不適定問題
7.1 隨機不適定問題
7.2 解隨機不適定問題的正則化方法
7.3 定理的證明
7.4 密度估計方法一致性的條件
7.5 非參數密度估計子:基于經驗分布函數逼近分布函數的估計子
7.6 非經典估計子
7.7 光滑密度函數的漸近收斂速率
7.8 定理7.4的證明
7.9 密度估計問題中光滑(正則化)參數值的選取
7.10 兩個密度比值的估計
7.11 直線上兩個密度比值的估計
7.12 直線上條件概率的估計
第8章 估計給定點上的函數值
8.1 *小化總體風險的方法
8.2 總體風險的結構*小化方法
8.3 關于兩個樣本子集上頻率的一致相對偏差的界
8.4 關于兩個樣本子集上均值的一致相對偏差的界
8.5 在線性決策規則集中估計指示函數的值
8.6 指示函數值估計的樣本選取
8.7 在與參數成線性關系的函數集中估計實函數值
8.8 實函數值估計的樣本選取
8.9 估計指示函數值的局部算法
8.10 估計實函數值的局部算法
8.11 在給定樣本集中尋找*好點的問題
第二部分 函數的支持向量估計..
第9章 感知器及其推廣
9.1 rosenblatt感知器
9.2 定理的證明
9.3 隨機逼近方法和指示函數的sigmoid逼近方法
9.4 勢函數法與徑向基函數法
9.5 *優化理論中的三個定理
9.6 神經網絡
第10章 估計指示函數的支持向量方法
10.1 *優超平面
10.2 不可分樣本集的*優超平面
10.3 *優超平面的統計特性
10.4 定理的證明
10.5 支持向量機的思想
10.6 支持向量方法的另一種構造方式
10.7 利用界選擇支持向量機
10.8 模式識別問題的支持向量機的例子
10.9 轉導推理的支持向量方法
10.10 多類分類
10.11 關于支持向量方法推廣性的評述
第11章 估計實函數的支持向量方法
11.1 不敏感損失函數
11.2 魯棒估計子的損失函數
11.3 *小化包含ε不敏感損失函數的風險
11.4 函數估計的支持向量機
11.5 構造實函數估計的核
11.6 生成樣條的核
11.7 生成fourier展開的核
11.8 函數逼近和回歸估計的支持向量anova分解
11.9 解線性算子方程的支持向量方法
11.10 密度估計的支持向量方法
11.11 條件概率函數和條件密度函數的估計
11.12 支持向量方法與稀疏函數逼近之間的關系
第12章 模式識別的支持向量機
12.1 二次優化問題
12.2 數字識別問題:美國郵政服務數據庫
12.3 切距
12.4 數字識別問題:nist數據庫
12.5 將來的競爭
第13章 函數逼近、回歸估計和信號處理的支持向量機
13.1 模型選擇問題
13.2 正則化線性函數集上的結構
13.3 利用支持向量方法的函數逼近
13.4 回歸估計的支持向量機
13.5 求解正電子放射層析成像(pet)問題的支持向量方法
13.6 關于支持向量方法的評述
第三部分 學習理論的統計學基礎
第14章 頻率一致收斂于概率的充分必要條件
14.1 頻率一致收斂于概率
14.2 基本引理
14.3 事件集的熵
14.4 熵的漸近性質
14.5 一致收斂性的充分必要條件:充分性的證明
14.6 一致收斂性的充分必要條件:必要性的證明
14.7 充分必要條件:必要性的證明(續)
第15章 均值一致收斂子期望的充分必要條件
15.1 ε熵
15.2 偽立方體
15.3 集合的ε擴張
15.4 輔助引理
15.5 一致收斂性的充分必要條件:必要性的證明
15.6 一致收斂性的充分必要條件:充分性的證明
15.7 定理15.1的推論
第16章 均值一致單邊收斂于期望的充分必要條件
16.1 引言
16.2 *大體積部分
16.3 平均對數定理
16.4 走廊存在性定理
16.5 鄰近走廊邊界的函數的存在性定理(潛在不可證偽的定理)
16.6 必要條件
16.7 充分必要條件
注釋與參考文獻評述
參考文獻
中英文術語對照表
統計學習理論 作者簡介
Vladimir N. Vapnik于1990年底加入位于美國新澤西Holmdel的AT&T貝爾實驗室,2002年轉移到新澤西Princeton的NEC實驗室,2014年11月加盟Facebook的人工智能研究團隊。1995,2003年起分別兼任英國Royal Holloway倫敦大學計算機和統計學教授,美國紐約哥倫比亞大學計算機教授。2006當選為美國國家工程院院士。Vapnik教授從事計算機科學、理論與應用統計學研究已有50多年,發表了7部學術著作和上百篇研究論文。他的主要學術成就是研究發展了一套基于經驗數據估計依賴關系的一般理論,即統計學習理論,以及在此理論基礎上的一種新的學習機器:支持向量機,它具有很高的推廣能力。這些理論與方法可以用在很多模式識別和回歸估計問題中,并已經在很多實際問題中取得了很好的應用成果。《統計學習理論》是Vapnik影響最為深遠的一本經典之作,根據Google Scholar,到2015年初,其英文版的引用次數超過5萬。在CNKI中國期刊全文數據庫中,以“統計學習理論”為參考文獻,檢索到的論文超過3千篇。 許建華:2002年于清華大學模式識別與智能系統專業獲工學博士學位。現任南京師范大學計算機科學與技術學院教授。主要從事機器學習、模式識別、神經網絡、信號處理理論、算法及應用研究。張學工:1994年于清華大學模式識別與智能系統專業獲工學博士學位。現任清華大學自動化系教授。主要從事生物信息學、機器學習與模式識別理論、方法與應用研究。
- >
有舍有得是人生
- >
詩經-先民的歌唱
- >
經典常談
- >
伯納黛特,你要去哪(2021新版)
- >
【精裝繪本】畫給孩子的中國神話
- >
推拿
- >
唐代進士錄
- >
中國人在烏蘇里邊疆區:歷史與人類學概述