-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰(zhàn)行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調(diào)優(yōu)實踐之路
-
>
第一行代碼Android
-
>
JAVA持續(xù)交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
無機器學習與深度學習算法基礎 版權(quán)信息
- ISBN:9787301313473
- 條形碼:9787301313473 ; 978-7-301-31347-3
- 裝幀:70g膠版紙
- 冊數(shù):暫無
- 重量:暫無
- 所屬分類:>
無機器學習與深度學習算法基礎 本書特色
1.全面:涉及機器學習領域中常見的經(jīng)典模型,以及新興的深度學習中的卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡、生成對抗網(wǎng)絡等模型。 2.細致:不僅對算法思路的進行了詳細的梳理和分析,還對算法中每個步驟、每條公式的含義都進行了細致的講解。 3.通用:讓讀者學習到經(jīng)典模型的算法步驟和數(shù)學形式,更重要的是理解每個算法形成的思路和過程,培養(yǎng)算法思維,獲得在日常工作和學習中更為通用的能力。 4.擴展:每章的*后一節(jié)都有一個關(guān)于相關(guān)話題的討論,可以使讀者拓展視野,增加閱讀的深度、廣度。
無機器學習與深度學習算法基礎 內(nèi)容簡介
本書從機器學習的概念與基本原理開始,介紹了機器學習及近年來流行的深度學習領域的經(jīng)典模型。閱讀本書可以讓讀者系統(tǒng)地了解機器學習和深度學習領域的基本知識,領會模型算法的思路與策略。 本書分為兩篇,共18章。一篇為經(jīng)典機器學習模型,主要介紹常用的機器學習經(jīng)典模型,包括線性回歸、支持向量機模型、邏輯斯蒂回歸、決策樹模型、k近鄰、樸素貝葉斯、線性判別分析和主成分分析、流形學習、聚類算法、稀疏編碼、直推式支持向量機、集成算法。第二篇為深度學習模型與方法,剖析神經(jīng)網(wǎng)絡的基本要素,并介紹常用的深度學習模型,包括感知機、卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡、生成對抗網(wǎng)絡。 本書試圖從初學者的角度對機器學習和深度學習的經(jīng)典算法進行詳細闡述。本書插圖豐富,語言通俗易懂,適合初入機器學習領域的“萌新”,也適合希望將機器學習算法應用到日常工作中的其他專業(yè)從業(yè)者,還可供對人工智能領域感興趣的讀者參考閱讀。
無機器學習與深度學習算法基礎 目錄
第1章 引言:從線性回歸說起 2
1.1 什么是機器學習 3
1.1.1 傳統(tǒng)算法與機器學習算法 4
1.1.2 線性回歸 9
1.2 過擬合與正則化 10
1.2.1 樣本量與過擬合 10
1.2.2 正則化方法 12
1.3 嶺回歸和lasso回歸 14
1.3.1 嶺回歸 14
1.3.2 lasso回歸 17
1.3.3 l1正則化和l2正則化 17
1.4 本章小結(jié)與代碼實現(xiàn) 21
1.5 本章話題:機器學習的
一般原理 25
第2章 陰陽剖分:支持向量機模型 30
2.1 支持向量機模型的基本思路 30
2.1.1 支持向量機模型的
基本思路 31
2.1.2 支持向量機算法的
基本流程 34
2.2 數(shù)學形式與求解方法 34
2.2.1 數(shù)學知識補充 35
2.2.2 數(shù)學模型與理論推導 36
2.3 核方法與維度問題 38
2.3.1 核方法的含義 39
2.3.2 核函數(shù)SVM 39
2.4 軟間隔支持向量機 41
2.4.1 軟間隔的含義 41
2.4.2 軟間隔SVM的損失
函數(shù) 42
2.5 本章小結(jié)與代碼實現(xiàn) 44
2.6 本章話題:高維度,是災難
還是契機? 46
第3章 化直為曲:邏輯斯蒂回歸 50
3.1 邏輯斯蒂回歸的基本原理 50
3.1.1 分類問題與回歸問題 51
3.1.2 邏輯斯蒂回歸算法思路 53
3.2 邏輯斯蒂函數(shù) 56
3.2.1 邏輯斯蒂函數(shù)的由來 56
3.2.2 邏輯斯蒂函數(shù)的優(yōu)勢 58
3.3 邏輯斯蒂回歸的數(shù)學原理 59
3.3.1 邏輯斯蒂回歸的數(shù)學
形式 59
3.3.2 準確率和召回率 62
3.4 參數(shù)確定的方法 65
3.4.1 似然函數(shù)簡介 65
3.4.2 邏輯斯蒂回歸的損失
函數(shù) 66
3.5 多項邏輯斯蒂回歸 67
3.5.1 多分類問題的邏輯斯蒂
回歸 67
3.5.2 softmax函數(shù) 68
3.6 本章小結(jié)與代碼實現(xiàn) 69
3.7 本章話題:廣義線性模型 72
第4章 層層拷問:決策樹模型 77
4.1 模型思路與算法流程 78
4.1.1 決策樹的思路——
以讀心術(shù)游戲為例 78
4.1.2 決策樹模型的基本流程 81
4.1.3 決策樹模型的關(guān)鍵問題 87
4.2 特征選擇原則 87
4.2.1 信息增益原則 87
4.2.2 信息增益比原則 89
4.2.3 基尼系數(shù)原則 89
4.3 剪枝策略 90
4.4 常用決策樹模型:ID3與
C4.5算法 92
4.4.1 ID3算法 92
4.4.2 C4.5算法 92
4.5 多變量決策樹簡介 93
4.6 本章小結(jié)與代碼實現(xiàn) 94
4.7 本章話題:信息論與
特征選擇 97
第5章 近朱者赤:k近鄰模型 101
5.1 模型的思路和特點 101
5.1.1 模型思路 101
5.1.2 懶惰學習與迫切學習 103
5.2 模型的相關(guān)性質(zhì) 105
5.2.1 數(shù)學形式 105
5.2.2 損失函數(shù)與誤差 108
5.2.3 k近鄰模型的改進 109
5.3 距離函數(shù)與參數(shù)選擇 111
5.3.1 距離函數(shù) 111
5.3.2 參數(shù)選擇的影響 114
5.4 本章小結(jié)與代碼實現(xiàn) 115
5.5 本章話題:相似性度量 119
第6章 執(zhí)果索因:樸素貝葉斯
模型 123
6.1 貝葉斯方法的基本概念 123
6.1.1 貝葉斯學派與頻率
學派 124
6.1.2 全概率公式與貝葉斯
公式 127
6.2 樸素貝葉斯的原理和方法 133
6.2.1 樸素貝葉斯的“樸素”
假設 133
6.2.2 拉普拉斯平滑 135
6.3 樸素貝葉斯算法的步驟與
流程 137
6.4 生成式模型與判別式模型 138
6.5 本章小結(jié)與代碼實現(xiàn) 138
6.6 本章話題:貝葉斯思維與
先驗概念 141
第7章 提綱挈領:線性判別分析與
主成分分析 144
7.1 線性降維的基本思路 144
7.2 LDA 146
7.2.1 投影的技巧 146
7.2.2 類內(nèi)距離和類間距離 147
7.2.3 LDA的求解 149
7.3 PCA 151
7.3.1 基變換與特征降維 151
7.3.2 方差*大化與PCA原理
推導 154
7.3.3 PCA的實現(xiàn)步驟 158
7.4 LDA與PCA:區(qū)別與
聯(lián)系 158
7.5 本章小結(jié)與代碼實現(xiàn) 159
7.5.1 LDA實驗:鳶尾花
數(shù)據(jù)集降維分類 159
7.5.2 PCA實驗:手寫數(shù)字
數(shù)據(jù)集降維 161
7.6 本章話題:矩陣的直觀解釋
與應用 162
第8章 曲面平鋪:流形學習 166
8.1 流形與流形學習 166
8.2 Isomap的基本思路與
實現(xiàn)方法 170
8.2.1 測地距離的概念 170
8.2.2 計算測地距離:圖論中的
Floyd算法 172
8.2.3 由距離到坐標:多維尺度
變換方法 173
8.3 Isomap算法步驟 175
8.4 LLE的基本思路與
實現(xiàn)方法 175
8.4.1 LLE的基本思想 175
8.4.2 局部線性重構(gòu) 176
8.5 LLE算法步驟 177
8.6 本章小結(jié)與代碼實現(xiàn) 178
8.7 本章話題:黎曼、非歐幾何
與流形感知 180
第9章 物以類聚:聚類算法 185
9.1 無監(jiān)督方法概述 185
9.2 聚類的基本目標和評價
標準 187
9.2.1 聚類的基本目標 187
9.2.2 聚類的評價標準 188
9.3 基于中心的k-means
算法 191
9.3.1 k-means算法的基本
思路 191
9.3.2 k-means算法步驟 193
9.3.3 k-means算法的局
限性 195
9.4 層次聚類算法 196
9.4.1 層次聚類的基本原理 196
9.4.2 層次聚類的AGNES
算法 199
9.5 密度聚類算法:DBSCAN 200
9.5.1 DBSCAN算法的基本
思路 200
9.5.2 DBSCAN算法步驟 201
9.6 本章小結(jié)與代碼實現(xiàn) 203
9.7 本章話題:Science上的一種
巧妙聚類算法 205
第10章 字典重構(gòu):稀疏編碼 209
10.1 稀疏編碼的思路 209
10.1.1 神經(jīng)生物學的發(fā)現(xiàn) 210
10.1.2 過完備性與稀疏性 210
10.2 稀疏編碼的數(shù)學形式 213
10.3 字典學習中的“字典” 215
10.3.1 傳統(tǒng)算法中的
“字典” 215
10.3.2 “字典”學習的意義 216
10.4 本章小結(jié)與代碼實現(xiàn) 217
10.5 本章話題:壓縮感知理論
簡介 220
第11章 教學相長:直推式支持
向量機 223
11.1 半監(jiān)督學習簡介 223
11.2 T-SVM模型 227
11.2.1 T-SVM的基本思路 227
11.2.2 T-SVM算法步驟 228
11.3 本章小結(jié)與代碼實現(xiàn) 229
11.4 本章話題:不同樣本集場景
下的問題處理策略 233
第12章 群策群力:集成學習 236
12.1 自舉匯聚和提升 236
12.1.1 Bagging算法和Boosting
算法的基本思路 237
12.1.2 Bagging算法和Boosting
算法的區(qū)別與聯(lián)系 240
12.2 Bagging算法的基本
步驟 241
12.3 Boosting算法的基本
步驟 242
12.4 Bagging算法:以隨機
森林算法為例 243
12.4.1 隨機森林算法 243
12.4.2 隨機森林算法中的
隨機性 244
12.5 Boosting算法:以Adaboost
算法為例 244
12.5.1 Adaboost算法的實現(xiàn)
步驟 245
12.5.2 Adaboost算法過程
分析 245
12.6 本章小結(jié)與代碼實現(xiàn) 246
12.7 本章話題:Adaboost算法
中的分步策略 249
第二篇 深度學習模型與方法
第13章 神經(jīng)網(wǎng)絡與深度學習:從感知機模型到阿爾法狗 254
13.1 感知機模型 256
13.1.1 感知機模型的基本原理
與數(shù)學形式 256
13.1.2 感知機模型的缺陷與
改進 260
13.2 人工神經(jīng)網(wǎng)絡 262
13.2.1 生物神經(jīng)元與感知機
模型 262
13.2.2 人工神經(jīng)網(wǎng)絡方法
簡介 264
13.2.3 反向傳播算法 265
13.2.4 神經(jīng)網(wǎng)絡的優(yōu)勢 267
13.3 需要深度學習的原因 268
13.4 神經(jīng)網(wǎng)絡模型的局限性 268
13.5 常用神經(jīng)網(wǎng)絡框架簡介 270
13.6 本章話題:人工智能發(fā)展
大事年表 271
無機器學習與深度學習算法基礎 節(jié)選
廣義上來說,機器學習算法包含以神經(jīng)網(wǎng)絡為基礎的深度學習算法。但是由于近年來神經(jīng)網(wǎng)絡在各種機器學習任務上的優(yōu)異表現(xiàn),人們開始傾向于將傳統(tǒng)的機器學習算法(如后面將要講的SVM,k 近鄰等)和深度學習區(qū)分開來。當然這樣做也是合理的,因為深度學習理論和應用的研究從深度和廣度上來說已然可以自成一體。并且,現(xiàn)今人工智能的工業(yè)產(chǎn)品中(如人臉識別、證件識別、智能問答、病理檢測等),以深度學習為算法支撐的占絕大多數(shù)。作為機器學習領域的學習者,對于深度學習的相關(guān)內(nèi)容自然應當予以足夠的重視,因此本書將深度學習內(nèi)容單獨作為一篇,進行較為詳細的介紹。 現(xiàn)在我們已經(jīng)基本對這些常見的概念有所了解了,下面將用一個示例來具體說明傳統(tǒng)算法與機器學習算法的區(qū)別,然后以線性回歸及其相關(guān)“變體”來介紹機器學習的基本原理。
無機器學習與深度學習算法基礎 作者簡介
賈壯,畢業(yè)于清華大學自動化系,專業(yè)為模式識別與智能系統(tǒng)方向。主要從事于機器學習與深度學習在圖像處理以及地球物理領域內(nèi)的相關(guān)應用研究,對機器學習相關(guān)算法有較深的理解。參與過多項機器學習相關(guān)工程項目,發(fā)表SCI期刊論文及會議論文數(shù)篇。曾獲得國家獎學金、數(shù)學建模一等獎、優(yōu)秀畢業(yè)生等獎項和榮譽稱號。
- >
苦雨齋序跋文-周作人自編集
- >
姑媽的寶刀
- >
李白與唐代文化
- >
我從未如此眷戀人間
- >
名家?guī)阕x魯迅:朝花夕拾
- >
伯納黛特,你要去哪(2021新版)
- >
史學評論
- >
龍榆生:詞曲概論/大家小書