中圖網小程序
一鍵登錄
更方便
本類五星書更多>
-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
機器學習與Python實踐 版權信息
- ISBN:9787560664620
- 條形碼:9787560664620 ; 978-7-5606-6462-0
- 裝幀:平裝-膠訂
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
機器學習與Python實踐 內容簡介
本書基于Python的Scikit Learn庫介紹了機器學習、深度學習和強化學習的基礎知識, 如分類、回歸、反向傳播算法和梯度下降算法, 以及TensorFlow基礎框架的安裝使用和API的介紹等。本書在內容上盡可能涵蓋機器學習、深度學習和強化學習的經典算法 (如卷積神經網絡、循環神經網絡、遷移學習等) 并清晰地闡釋它們的原理, 本書還基于TensorFlow框架對多個常見的經典數據集進行了算法模型的實踐, 如基于INIST手寫體圖片和Iris Flowers Dataset鳶尾花數據集的識別、基于NLP數據集的文本分析以及基于OpenAIGym環境的AGV多智能體路徑優化實戰等。
機器學習與Python實踐 目錄
第1章 機器學習簡介 1
1.1 人工智能、機器學習與深度學習 1
1.2 機器學習概述 3
1.2.1 有監督學習 4
1.2.2 無監督學習 5
1.2.3 有監督學習與無監督學習的
區別 6
1.2.4 深度學習 6
1.2.5 強化學習 7
1.3 機器學習的具體過程 8
1.3.1 數據采集和標記 8
1.3.2 數據預處理 9
1.3.3 特征工程及特征選擇 9
1.3.4 模型選擇 10
1.3.5 模型訓練和測試 10
1.3.6 模型性能評估、使用和優化 10
1.4 機器學習的重要元素 11
1.4.1 欠擬合和過擬合 11
1.4.2 模型性能評估指標 13
1.4.3 模型評價ROC曲線與AUC值 14
1.5 機器學習的開發環境 16
1.5.1 Jupyter的安裝與使用 16
1.5.2 Anaconda 3的安裝搭建 16
1.5.3 Python的PyCharm集成
開發環境 18
本章小結 19
習題 19
第2章 機器學習的Python基礎庫 20
2.1 NumPy 20
2.1.1 ndarray的數據類型 22
2.1.2 數組和標量之間的運算 23
2.1.3 索引和切片 24
2.1.4 數組轉置和軸對換 26
2.1.5 利用數組進行數據處理 27
2.1.6 數學和統計方法 29
2.2 Pandas 29
2.2.1 Pandas數據結構 30
2.2.2 Pandas文件操作 31
2.2.3 數據處理 32
2.2.4 層次化索引 33
2.2.5 分級順序 36
2.2.6 使用DataFrame的列 37
2.3 Matplotlib 39
2.3.1 Figure和Subplot 39
2.3.2 調整subplot周圍的間距 41
2.3.3 顏色、標記和線型 42
2.3.4 刻度標簽和圖例 42
2.3.5 添加圖例 43
2.3.6 將圖表保存到文件 44
2.4 Scikit-learn 45
2.5 TensorFlow 46
本章小結 48
習題 48
第3章 數據的特征工程 49
3.1 特征工程 49
3.1.1 特征工程的定義 49
3.1.2 特征工程的處理過程 50
3.1.3 特征工程的重要性 51
3.2 數據預處理 51
3.2.1 創建訓練集和測試集 51
3.2.2 數據正則化、標準化與歸一化 53
3.3 特征選擇 58
3.3.1 方差選擇法 59
3.3.2 遞歸消除特征法 59
3.3.3 帶懲罰項的特征選擇法 59
3.4 數據降維 61
3.4.1 主成分分析法 62
3.4.2 線性判別分析法 65
3.4.3 非線性降維 67
本章小結 73
習題 73
第4章 無監督學習 74
4.1 K-Means算法 74
4.1.1 K-Means算法原理 74
4.1.2 K-Means算法流程 76
4.1.3 K-Means存在的問題 76
4.1.4 K-Means優化(K-Means++算法) 77
4.1.5 K-Means算法實現 77
4.1.6 K-Means算法實例應用 82
4.2 Mean Shift算法 84
4.2.1 核密度估計 84
4.2.2 Mean Shift算法的基本形式 85
4.2.3 Mean Shift算法的基本流程 85
4.2.4 Mean Shift算法實現 86
4.2.5 Mean Shift算法實例應用 90
4.3 DBSCAN聚類算法 91
4.3.1 DBSCAN聚類定義 92
4.3.2 DBSCAN聚類算法 93
4.3.3 DBSCAN算法實現 94
4.3.4 DBSCAN算法實例應用 98
本章小結 101
習題 101
第5章 決策樹 102
5.1 決策樹簡介 102
5.2 決策樹構造 103
5.2.1 信息增益 103
5.2.2 信息增益率 104
5.2.3 基尼系數 105
5.2.4 遞歸構造決策樹 105
5.3 決策樹剪枝 106
5.4 實例:應用決策樹預測鳶尾花
分類 107
5.4.1 鳶尾花數據集簡介 107
5.4.2 數據集分析與可視化 107
5.4.3 實現決策樹分類 108
5.4.4 決策樹存儲 111
5.4.5 決策樹模型分析 112
5.4.6 K折交叉驗證 113
5.5 隨機森林 114
5.5.1 隨機森林簡介 114
5.5.2 隨機森林構造 114
5.5.3 袋外錯誤率 116
5.6 實例:隨機森林實現鳶尾花分類 116
5.7 決策樹與隨機森林的優缺點 119
本章小結 120
習題 121
第6章 樸素貝葉斯 122
6.1 貝葉斯定理 122
6.1.1 貝葉斯定理的提出 122
6.1.2 條件概率 123
6.2 基于樸素貝葉斯的分類方法 125
6.2.1 應用條件概率進行分類 125
6.2.2 分類過程 125
6.2.3 樸素貝葉斯分類過程 126
6.2.4 樸素貝葉斯的實現代碼 127
6.2.5 樸素貝葉斯的擴展方法 128
6.3 樸素貝葉斯分類的Python實現 129
6.4 示例:過濾垃圾電子郵件 131
6.4.1 獲取并觀察數據集 131
6.4.2 讀取數據集并轉換為字符列表 134
6.4.3 將字符列表轉換為特征向量 134
6.4.4 樣本集劃分 138
6.4.5 調用算法模塊并預測分類 139
6.5 EM算法 139
6.5.1 極大似然估計 139
6.5.2 EM算法的基本思想 140
6.5.3 EM算法的原理 140
6.6 示例:EM算法用于鳶尾花分類 142
本章小結 144
習題 145
第7章 關聯分析 146
7.1 概述 146
7.2 Apriori的基本概念 147
7.2.1 關聯規則 147
7.2.2 支持度與頻繁項目集 148
7.2.3 置信度與強關聯規則 148
7.3 Apriori算法工作原理 149
7.3.1 發現頻繁項目集 149
7.3.2 生成關聯規則 151
7.3.3 Apriori算法實現 152
7.3.4 示例:發現毒蘑菇的特征 153
7.4 FP-growth算法介紹 155
7.4.1 構建FP樹 156
7.4.2 從FP樹中挖掘頻繁項目集 158
7.4.3 FP-growth算法實現 159
7.4.4 示例:零售店購物籃挖掘 160
7.5 Apriori算法與FP-growth算法的
優缺點 162
本章小結 163
習題 163
第8章 回歸 164
8.1 線性回歸 164
8.1.1 *小二乘法 165
8.1.2 梯度下降法 166
8.1.3 示例:波士頓房價預測 168
8.2 局部加權線性回歸 174
8.3 回歸系數的縮減方法 177
8.3.1 嶺回歸 177
8.3.2 Lasso回歸 181
8.4 邏輯回歸 183
8.4.1 分類函數 183
8.4.2 回歸方程 184
8.4.3 梯度下降法求解*佳回歸系數 184
8.4.4 示例:Iris數據集分類 186
本章小結 188
習題 188
第9章 人工神經網絡 189
9.1 概述 189
9.1.1 人工神經網絡的發展史 190
9.1.2 人工神經網絡的特點 192
9.2 人工神經元MP模型 193
9.2.1 單層神經元——感知機模型 194
9.2.2 常見的激活函數 197
9.3 多層前饋正向傳播神經網絡 199
9.3.1 正向傳播神經網絡結構 200
9.3.2 多層神經網絡激活函數 201
9.3.3 損失函數 202
9.3.4 前向傳播網絡Python
代碼實現 203
9.4 反向多層傳播BP神經網絡 204
9.4.1 BP算法的基本思想 204
9.4.2 BP算法的數學推導 206
9.4.3 梯度計算及梯度下降 207
9.4.4 BP神經網絡舉例 208
9.4.5 反向傳播神經網絡Python
代碼實現 213
9.4.6 BP神經網絡的優缺點 215
本章小結 215
習題 216
第10章 TensorFlow深度學習框架 217
10.1 TensorFlow簡介 217
10.2 TensorFlow安裝和使用 219
10.2.1 安裝環境介紹 219
10.2.2 安裝TensorFlow 220
10.3 TensorFlow基礎知識 222
10.3.1 TensorFlow使用 222
10.3.2 張量 223
10.3.3 張量的各種操作變換 224
10.4 基于TensorFlow求解線性回歸問題
234
10.5 利用TensorBoard進行數據
可視化 238
10.5.1 在TensorBoard中查看
圖結構 239
10.5.2 TensorBoard查看數據趨勢
變化 240
本章小結 243
習題 243
第11章 卷積神經網絡 244
11.1 卷積神經網絡簡介 244
11.1.1 研究背景 244
11.1.2 卷積神經網絡的基本特性 245
11.1.3 卷積神經網絡的應用 246
11.2 卷積神經網絡的基本運算 247
11.2.1 卷積神經網絡的輸入 248
11.2.2 卷積運算 248
11.2.3 圖像邊界填充 254
11.2.4 激活函數 256
11.2.5 池化計算 257
11.2.6 全連接層 258
11.2.7 卷積神經網絡的訓練過程 259
11.3 用TensorFlow實現卷積神經網絡 260
11.3.1 TensorFlow的卷積操作 261
11.3.2 用TensorFlow實現MNIST
手寫體識別 262
11.4 幾種經典的卷積神經網絡 264
11.4.1 LeNet網絡 264
11.4.2 AlexNet網絡 267
11.4.3 VGGNet網絡 269
11.4.4 ResNet網絡 270
本章小結 271
習題 272
第12章 循環神經網絡 273
12.1 循環神經網絡與自然語言處理 274
12.1.1 序列數據建模 274
12.1.2 序列數據的One-Hot編碼 275
12.1.3 神經語言模型 277
12.1.4 字詞轉換為向量Word2Vec模型
278
12.2 循環神經網絡基本原理 282
12.2.1 循環單元結構 282
12.2.2 RNN算法原理 283
12.2.3 RNN前向傳播算法 284
12.2.4 RNN反向傳播算法推導 284
12.2.5 循環神經網絡的不足 285
12.3 長短期記憶網絡 287
12.3.1 LSTM的單元基本結構 287
12.3.2 LSTM的核心思想 288
12.3.3 GRU神經網絡模型介紹 292
12.3.4 LSTM和GRU的核心思想對比
293
12.4 用TensorFlow實現循環神經網絡 294
12.4.1 理解tf.contrib.rnn.BasicRNNCell
函數 295
12.4.2 理解tf.contrib.rnn.BasicLSTMCell
函數 295
12.4.3 理解tf.contrib.rnn.GRUCell函數
297
12.4.4 解讀tf.contrib.rnn.DropoutWrapper
函數 298
12.5 BERT深度網絡模型介紹 299
本章小結 302
習題 302
第13章 強化學習 303
13.1 強化學習簡介 303
13.1.1 強化學習基本原理 304
13.1.2 強化學習的特點 304
13.1.3 強化學習要素 304
13.1.4 強化學習與監督學習、非監督
學習之間的關系 305
13.1.5 強化學習的學習過程 306
13.1.6 價值函數的計算過程 307
13.2 馬爾可夫(Markov)決策過程 308
13.3 強化學習方法 312
13.3.1 強化學習方法分類 312
13.3.2 時序差分法 313
13.3.3 基于動態規劃的算法 317
13.3.4 策略梯度算法 320
13.4 強化學習實例 323
本章小結 330
習題 331
參考文獻 332
展開全部
書友推薦
- >
史學評論
- >
中國歷史的瞬間
- >
羅曼·羅蘭讀書隨筆-精裝
- >
李白與唐代文化
- >
月亮虎
- >
我與地壇
- >
苦雨齋序跋文-周作人自編集
- >
莉莉和章魚
本類暢銷