-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
機器學習:工程師和科學家的第一本書 版權信息
- ISBN:9787111753698
- 條形碼:9787111753698 ; 978-7-111-75369-8
- 裝幀:平裝-膠訂
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
機器學習:工程師和科學家的第一本書 本書特色
·本書在數學知識的深度和廣度之間實現了理想的平衡。·本書不僅講解清晰,而且包含很多圖示,是自學的絕佳工具,也可以作為機器學習入門課的教科書。·對于那些有數學背景并且想了解有監督的機器學習原理的讀者來說,本書不可不讀。
機器學習:工程師和科學家的第一本書 內容簡介
在連貫的統計框架中,本書涵蓋了一系列有監督的機器學習方法,包括基礎方法(k-NN、決策樹、線性和邏輯回歸等)和高級方法(深度神經網絡、支持向量機、高斯過程、隨機森林和提升等),以及常用的無監督方法(生成模型、k-均值聚類、自動編碼器、主成分分析和生成對抗網絡等)。所有方法都包含詳細的解釋和偽代碼。通過在方法之間建立聯系,討論一般概念(例如損失函數、zuida似然、偏差-方差分解、核和貝葉斯方法),同時介紹常規的實用工具(例如正則化、交叉驗證、評估指標和優化方法),本書始終將關注點放在基礎知識上。*后兩章為解決現實世界中有監督的機器學習問題和現代機器學習的倫理問題提供了實用建議。
機器學習:工程師和科學家的第一本書 目錄
Machine Learning: A First Course for Engineers and Scientists
譯者序
致謝
符號表
第1章?引?言 1
1.1?機器學習的示例 1
1.2?關于本書 8
1.3?拓展閱讀 9
第2章?有監督學習:**個方法 10
2.1?有監督機器學習 10
2.1.1 從有標記的數據中學習 10
2.1.2 數值型和分類型變量 11
2.1.3 分類和回歸 11
2.1.4 在訓練數據之外進行泛化 14
2.2 一個基于距離的方法:k-NN 14
2.2.1 k-NN算法 14
2.2.2 分類器的決策邊界 16
2.2.3 k的選擇 17
2.2.4 輸入標準化 19
2.3 一種基于規則的方法:決策樹 20
2.3.1 學習回歸樹 21
2.3.2 分類樹 24
2.3.3 決策樹應該多深? 27
2.4 拓展閱讀 29
第3章?基本參數模型和統計
視角上的學習 30
3.1?線性回歸 30
3.1.1 線性回歸模型 30
3.1.2 用訓練數據訓練線性
回歸模型 31
3.1.3 損失函數和代價函數 32
3.1.4 *小二乘法和正規方程 33
3.1.5 *大似然視角 35
3.1.6 分類型輸入變量 36
3.2 分類和邏輯回歸 36
3.2.1 從統計角度看分類問題 36
3.2.2 二元分類的邏輯回歸模型 38
3.2.3 通過*大似然法訓練邏輯
回歸模型 39
3.2.4 預測和決策邊界 40
3.2.5 兩類以上的邏輯回歸 42
3.3 多項式回歸和正則化 44
3.4 廣義線性模型 46
3.5?拓展閱讀 48
3.A 正規方程的推導 49
3.A.1 微積分方法 49
3.A.2 線性代數方法 49
第4章?理解、評估和提高性能 51
4.1 預期的新數據錯誤:實際
生產環境中的性能 51
4.2 估計 53
4.2.1 :我們無法從
訓練數據中估計 53
4.2.2 :我們可以從
保留的驗證數據中估計 54
4.2.3 k-fold 交叉驗證:
無須設置保留驗證數據 55
4.2.4 使用測試數據集 57
4.3 的訓練誤差:泛化差距分解 57
4.3.1 什么影響泛化差距? 58
4.3.2 在實際應用中降低 61
4.3.3 模型復雜度的缺陷 62
4.4 的偏差-方差分解 63
4.4.1 什么影響偏差和方差? 65
4.4.2 偏差、方差和泛化差距
之間的聯系 67
4.5 用于評估二元分類器的其他工具 70
4.5.1 混淆矩陣和ROC曲線 70
4.5.2 分數和精確率-召回率
曲線 72
4.6 拓展閱讀 73
第5章?學習參數模型 75
5.1 參數化建模原則 75
5.1.1 非線性參數函數 75
5.1.2 損失*小化作為泛化替代 77
5.2 損失函數和基于似然的模型 78
5.2.1 回歸中的損失函數 79
5.2.2 二元分類中的損失函數 80
5.2.3 多類分類 83
5.2.4 基于似然的模型和*大似然
方法 83
5.2.5 嚴格正確的損失函數和漸近
*小化器 85
5.3 正則化 88
5.3.1 正則化 88
5.3.2 正則化 89
5.3.3 一般顯式正則化 90
5.3.4 隱式正則化 90
5.4 參數優化 90
5.4.1 閉式解優化 92
5.4.2 梯度下降 93
5.4.3 二階梯度法 96
5.5 大型數據集優化 100
5.5.1 隨機梯度下降 100
5.5.2 隨機梯度下降的學習率和
收斂度 101
5.5.3 隨機二階梯度法 103
5.5.4 自適應方法 103
5.6 超參數優化 103
5.7 拓展閱讀 105
第6章?神經網絡和深度學習 106
6.1 神經網絡模型 106
6.1.1 廣義線性回歸 106
6.1.2 雙層神經網絡 107
6.1.3 單元向量化 108
6.1.4 深度神經網絡 109
6.1.5 數據點向量化 110
6.1.6 用于分類的神經網絡 111
6.2 訓練神經網絡 112
6.2.1 反向傳播 113
6.2.2 初始化 117
6.3 卷積神經網絡 118
6.3.1 圖像的數據表示 118
6.3.2 卷積層 119
6.3.3 稀疏相互作用 119
6.3.4 參數共享 120
6.3.5 卷積層和步幅 120
6.3.6 池化層 121
6.3.7 多通道 122
6.3.8 完整的CNN架構 123
6.4 dropout 124
6.4.1 子網絡集成 125
6.4.2 通過dropout訓練 125
6.4.3 測試時的預測 126
6.4.4 dropout和bagging 126
6.4.5 將dropout作為正則化方法 127
6.5 拓展閱讀 127
6.A 反向傳播方程的推導 128
第7章?集成方法:bagging和
提升方法 129
7.1 bagging方法 129
7.1.1 自舉法 131
7.1.2 通過取平均值降低方差 132
7.1.3 包外誤差估計 135
7.2 隨機森林 136
7.3 提升方法和AdaBoost 138
7.3.1 AdaBoost 140
7.3.2 AdaBoost的設計選擇 145
7.4 梯度提升方法 145
7.5 拓展閱讀 149
第8章?非線性輸入變換和核 151
8.1 通過非線性輸入變換創造特征 151
8.2 核嶺回歸 153
8.2.1 對線性回歸的重構 153
8.
機器學習:工程師和科學家的第一本書 作者簡介
安德里亞斯·林霍爾姆(Andreas Lindholm) 瑞典Annotell公司機器學習研究工程師,致力于解決自動駕駛的數據注釋和數據質量問題。2013年獲得林雪平大學理學碩士學位,2018年獲得烏普薩拉大學信息技術方向博士學位。
尼克拉斯·瓦爾斯特倫(Niklas Wahlstr?m) 烏普薩拉大學系統與控制系助理教授。2010年獲得林雪平大學理學碩士學位,2015年獲得林雪平大學自動控制方向博士學位。
弗雷德里克·林斯滕(Fredrik Lindsten) 林雪平大學統計與機器學習系副教授。2013年獲得林雪平大學自動控制方向博士學位。他曾獲得瑞典戰略研究基金會頒發的Ingvar Carlsson獎和烏普薩拉皇家科學學會頒發的Benzelius獎。
托馬斯·B. 舍恩(Thomas B. Sch?n) 烏普薩拉大學人工智能方向教授。2018年當選瑞典皇家工程科學院和烏普薩拉皇家科學學會院士。他曾獲得瑞典皇家科學院頒發的Tage Erlander獎和Arnberg獎。他是ELLIS協會會士。
- >
我從未如此眷戀人間
- >
山海經
- >
回憶愛瑪儂
- >
隨園食單
- >
推拿
- >
企鵝口袋書系列·偉大的思想20:論自然選擇(英漢雙語)
- >
羅曼·羅蘭讀書隨筆-精裝
- >
巴金-再思錄