中图网(原中国图书网):网上书店,尾货特色书店,30万种特价书低至2折!

歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN

包郵 PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN

出版社:機(jī)械工業(yè)出版社出版時(shí)間:2023-06-01
開本: 16開 頁數(shù): 597
中 圖 價(jià):¥108.1(6.8折) 定價(jià)  ¥159.0 登錄后可看到會(huì)員價(jià)
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>

PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN 版權(quán)信息

PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN 本書特色

Python深度學(xué)習(xí)“四大名著”之一全新PyTorch版 PyTorch核心維護(hù)者Dmytro Dzhulgakov親筆作序推薦 從初學(xué)者角度,帶你全面了解現(xiàn)代機(jī)器學(xué)習(xí)技術(shù)并從零開始動(dòng)手實(shí)踐

PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN 內(nèi)容簡介

本書深入介紹了機(jī)器學(xué)習(xí)領(lǐng)域的基本概念和方法,除介紹了Python機(jī)器學(xué)習(xí)庫和用機(jī)器學(xué)習(xí)庫搭建神經(jīng)網(wǎng)絡(luò)模型的方法外,還介紹了機(jī)器學(xué)習(xí)算法的數(shù)學(xué)理論、工作原理、使用方法、實(shí)現(xiàn)細(xì)節(jié)以及如何避免機(jī)器學(xué)習(xí)算法實(shí)現(xiàn)過程中的常見問題。本書涵蓋了多種用于文本和圖像分類的機(jī)器學(xué)習(xí)與深度學(xué)習(xí)方法,以及用于生成新數(shù)據(jù)的生成對(duì)抗網(wǎng)絡(luò)(GAN)和用于訓(xùn)練智能體的強(qiáng)化學(xué)習(xí),還介紹了深度學(xué)習(xí)的新動(dòng)態(tài),包括圖神經(jīng)網(wǎng)絡(luò)和用于自然語言處理(NLP)的大型transformer。本書講解清晰,示例生動(dòng),理論和實(shí)踐部分相對(duì)平衡,既可以作為機(jī)器學(xué)習(xí)領(lǐng)域初學(xué)者的入門教程,也可以作為讀者開發(fā)機(jī)器學(xué)習(xí)項(xiàng)目時(shí)的參考書。

PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN 目錄

譯者序

前言
作者簡介
審校者簡介 第1章 賦予計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí)的能力1
 1.1 將數(shù)據(jù)轉(zhuǎn)化為知識(shí)的智能系統(tǒng)1
 1.2 三種機(jī)器學(xué)習(xí)類型2
1.2.1 用于預(yù)測未來的監(jiān)督學(xué)習(xí)2
1.2.2 解決交互問題的強(qiáng)化學(xué)習(xí)4
1.2.3 發(fā)現(xiàn)數(shù)據(jù)中隱藏規(guī)律的無監(jiān)督學(xué)習(xí) 5
 1.3 基本術(shù)語與符號(hào)6
1.3.1 本書中使用的符號(hào)和約定6
1.3.2 機(jī)器學(xué)習(xí)術(shù)語8
 1.4 構(gòu)建機(jī)器學(xué)習(xí)系統(tǒng)的路線圖8
1.4.1 數(shù)據(jù)預(yù)處理——讓數(shù)據(jù)可用8
1.4.2 訓(xùn)練和選擇預(yù)測模型9
1.4.3 使用未見過的數(shù)據(jù)對(duì)模型進(jìn)行評(píng)估10
 1.5 使用Python實(shí)現(xiàn)機(jī)器學(xué)習(xí)算法10
1.5.1 從Python Package Index中安裝Python和其他軟件包10
1.5.2 使用Anaconda Python
軟件包管理器11
1.5.3 科學(xué)計(jì)算、數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)軟件包12
 1.6 本章小結(jié)13
第2章 訓(xùn)練簡單的機(jī)器學(xué)習(xí)分類算法14
 2.1 人工神經(jīng)元——機(jī)器學(xué)習(xí)早期歷史一瞥14
2.1.1 人工神經(jīng)元的定義15
2.1.2 感知機(jī)學(xué)習(xí)規(guī)則16
 2.2 使用Python實(shí)現(xiàn)感知機(jī)學(xué)習(xí)算法19
2.2.1 面向?qū)ο蟮母兄獧C(jī)API19 2.2.2 使用鳶尾花數(shù)據(jù)集訓(xùn)練感知機(jī)22
 2.3 自適應(yīng)線性神經(jīng)元與算法收斂27
2.3.1 使用梯度下降法*小化損失函數(shù)28
2.3.2 在Python中實(shí)現(xiàn)Adaline30
2.3.3 通過特征縮放改進(jìn)梯度下降34
2.3.4 大規(guī)模機(jī)器學(xué)習(xí)與隨機(jī)梯度下降36
 2.4 本章小結(jié)41 XIV
第3章 ScikitLearn機(jī)器學(xué)習(xí)分類算法之旅42
 3.1 分類算法的選擇42
 3.2 學(xué)習(xí)ScikitLearn的**步——訓(xùn)練感知機(jī)43
 3.3 用邏輯回歸算法建模分類概率48
3.3.1 邏輯回歸與條件概率48
3.3.2 用邏輯損失函數(shù)更新模型權(quán)重51
3.3.3 從Adaline的代碼實(shí)現(xiàn)到邏輯回歸的代碼實(shí)現(xiàn)53
3.3.4 用ScikitLearn訓(xùn)練邏輯回歸模型56
3.3.5 使用正則化避免模型過擬合59
 3.4 基于*大分類間隔的支持向量機(jī)62
3.4.1 理解*大分類間隔62
3.4.2 使用松弛變量解決非線性可分問題62
3.4.3 ScikitLearn中另外一種實(shí)現(xiàn)64
 3.5 使用核支持向量機(jī)求解非線性問題64
3.5.1 處理線性不可分?jǐn)?shù)據(jù)的核方法64
3.5.2 使用核方法在高維空間中尋找分離超平面66
 3.6 決策樹學(xué)習(xí)69
3.6.1 *大化信息增益70
3.6.2 構(gòu)建決策樹73
3.6.3 多棵決策樹組成隨機(jī)森林76
 3.7 基于惰性學(xué)習(xí)策略的k近鄰算法78
 3.8 本章小結(jié)81
第4章 構(gòu)建良好的訓(xùn)練數(shù)據(jù)集——數(shù)據(jù)預(yù)處理83
 4.1 處理缺失值83
4.1.1 識(shí)別表格數(shù)據(jù)中的缺失值83
4.1.2 刪除含有缺失值的樣本或特征85
4.1.3 填補(bǔ)缺失值85
4.1.4 ScikitLearn的估計(jì)器86
 4.2 處理類別數(shù)據(jù)87
4.2.1 用pandas實(shí)現(xiàn)類別數(shù)據(jù)編碼88
4.2.2 映射有序特征88
4.2.3 類別標(biāo)簽編碼89
4.2.4 標(biāo)稱特征的獨(dú)熱編碼90
 4.3 將數(shù)據(jù)集劃分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集93
 4.4 使特征具有相同的尺度95
 4.5 選擇有意義的特征97
4.5.1 用L1和L2正則化對(duì)模型復(fù)雜度進(jìn)行懲罰98
4.5.2 L2正則化的幾何解釋98
4.5.3 L1正則化與稀疏解99
4.5.4 序貫特征選擇算法102
 4.6 用隨機(jī)森林評(píng)估特征重要性107
 4.7 本章小結(jié)109
第5章 通過降維方法壓縮數(shù)據(jù)110
 5.1 無監(jiān)督降維的主成分分析方法110
5.1.1 主成分分析的主要步驟110
5.1.2 提取主成分的步驟112
5.1.3 總方差和被解釋的方差114
5.1.4 特征變換115
5.1.5 用ScikitLearn實(shí)現(xiàn)主成分分析118
5.1.6 評(píng)估特征的貢獻(xiàn)120
 5.2 監(jiān)督數(shù)據(jù)壓縮的線性判別分析方法122
5.2.1 主成分分析與線性判別分析122
5.2.2 線性判別分析基本原理123
5.2.3 計(jì)算散布矩陣124
5.2.4 為新特征子空間選擇線性判別式126
5.2.5 將樣本投影到新的特征空間128
5.2.6 用ScikitLearn實(shí)現(xiàn)線性判別分析128
 5.3 非線性降維和可視化130
5.3.1 非線性降維的不足130
5.3.2 使用tSNE可視化數(shù)據(jù)131
 5.4 本章小結(jié)135
XV
第6章 模型評(píng)估和超參數(shù)調(diào)優(yōu)的*佳實(shí)踐136
 6.1 使用pipeline方法簡化工作流程136
6.1.1 加載威斯康星乳腺癌數(shù)據(jù)集136
6.1.2 在pipeline中集成轉(zhuǎn)換器和估計(jì)器138
 6.2 使用k折交叉驗(yàn)證評(píng)估模型性能140
6.2.1 holdout交叉驗(yàn)證140
6.2.2 k折交叉驗(yàn)證140
 6.3 用學(xué)習(xí)曲線和驗(yàn)證曲線調(diào)試算法144
6.3.1 使用學(xué)習(xí)曲線解決偏差和方差問題144
6.3.2 使用驗(yàn)證曲線解決過擬合和欠擬合問題146
 6.4 通過網(wǎng)格搜索微調(diào)機(jī)器學(xué)習(xí)模型148
6.4.1 通過網(wǎng)格搜索調(diào)整超參數(shù)148
6.4.2 通過隨機(jī)搜索更廣泛地探索超參數(shù)的配置149
6.4.3 連續(xù)減半超參數(shù)的搜索算法151
6.4.4 嵌套交叉驗(yàn)證153
 6.5 模型性能評(píng)估指標(biāo)154
6.5.1 混淆矩陣155
6.5.2 精確率和召回率156
6.5.3 繪制ROC曲線158
6.5.4 多分類器評(píng)價(jià)指標(biāo)160
6.5.5 處理類別不均衡問題161
 6.6 本章小結(jié)163
XVI
第7章 組合不同模型的集成學(xué)習(xí)164
 7.1 集成學(xué)習(xí)164
 7.2 通過絕對(duì)多數(shù)投票組合分類器167
7.2.1 實(shí)現(xiàn)一個(gè)簡單的基于絕對(duì)多數(shù)投票的集成分類器167
7.2.2 使用絕對(duì)多數(shù)投票原則進(jìn)行預(yù)測171
7.2.3 評(píng)估和調(diào)整集成分類器173
 7.3 bagging——基于bootstrap樣本構(gòu)建集成分類器179
7.3.1 bagging簡介179
7.3.2 使用bagging對(duì)葡萄酒數(shù)據(jù)集中的樣本進(jìn)行分類180
 7.4 通過自適應(yīng)boosting提高弱學(xué)習(xí)器的性能184
7.4.1 boosting的工作原理184
7.4.2 用ScikitLearn實(shí)現(xiàn)AdaBoost188
 7.5 梯度boosting——基于損失梯度訓(xùn)練集成分類器191
7.5.1 比較AdaBoost與梯度boosting191
7.5.2 通用的梯度boosting算法概述191
7.5.3 解釋用于分類的梯度boosting算法193
7.5.4 用梯度boosting分類的例子194
7.5.5 使用XGBoost196
 7.6 本章小結(jié)197
第8章 用機(jī)器學(xué)習(xí)進(jìn)行情感分析198
 8.1 對(duì)IMDb影評(píng)數(shù)據(jù)進(jìn)行文本處理198
8.1.1 獲取影評(píng)數(shù)據(jù)集199
8.1.2 將影評(píng)數(shù)據(jù)集預(yù)處理成更易使用的格式199
 8.2 詞袋模型201
8.2.1 將單詞轉(zhuǎn)換為特征向量201
8.2.2 通過詞頻-逆文檔頻率評(píng)估單詞的相關(guān)性203
8.2.3 文本數(shù)據(jù)清洗204
8.2.4 將文檔處理成token206
 8.3 訓(xùn)練用于文檔分類的邏輯回歸模型208
 8.4 處理更大的數(shù)據(jù)——在線算法和核外學(xué)習(xí)方法210
 8.5 用潛在狄利克雷分配實(shí)現(xiàn)主題建模213
8.5.1 使用LDA分解文本文檔214
8.5.2 用ScikitLearn實(shí)現(xiàn)LDA214
 8.6 本章小結(jié)217
第9章 預(yù)測連續(xù)目標(biāo)變量的回歸分析218
 9.1 線性回歸簡介218
9.1.1 簡單線性回歸218
9.1.2 多元線性回歸219
 9.2 探索艾姆斯住房數(shù)據(jù)集220
9.2.1 將艾姆斯住房數(shù)據(jù)集加載到DataFrame中220
9.2.2 可視化數(shù)據(jù)集的重要特征222
9.2.3 使用相關(guān)矩陣查看相關(guān)性223
 9.3 *小二乘線性回歸模型的實(shí)現(xiàn)225
9.3.1 用梯度下降法求解回歸參數(shù)225
9.3.2 用ScikitLearn估計(jì)回歸模型的系數(shù)229
 9.4 使用RANSAC擬合穩(wěn)健回歸模型231
 9.5 評(píng)估線性回歸模型的性能233
 9.6 使用正則化方法進(jìn)行回歸237
 9.7 將線性回歸模型轉(zhuǎn)化為曲線——多項(xiàng)式回歸238
9.7.1 使用ScikitLearn添加多項(xiàng)式項(xiàng)239
9.7.2 建模艾姆斯住房數(shù)據(jù)集中的非線性關(guān)系240
 9.8 使用隨機(jī)森林處理非線性關(guān)系243
9.8.1 決策樹回歸243
9.8.2 隨機(jī)森林回歸245
 9.9 本章小結(jié)247
XVII
第10章 處理無標(biāo)簽數(shù)據(jù)的
聚類分析248
 10.1 使用k均值算法對(duì)樣本分組248
10.1.1 用ScikitLearn實(shí)現(xiàn)k均值聚類248
10.1.2 k均值 ——更聰明的簇初始化方法252
10.1.3 硬聚類與軟聚類253
10.1.4 用肘方法求解*優(yōu)簇的數(shù)量255
10.1.5 通過輪廓圖量化聚類質(zhì)量255
 10.2 把簇組織成層次樹260
10.2.1 自底向上的聚類260
10.2.2 在距離矩陣上進(jìn)行分層聚類262
10.2.3 熱度圖與樹狀圖結(jié)合265
10.2.4 通過ScikitLearn進(jìn)行凝聚聚類266
 10.3 通過DBSCAN定位高密度區(qū)域267
 10.4 本章小結(jié)272 XVIII
第11章 從零開始實(shí)現(xiàn)多層人工神經(jīng)網(wǎng)絡(luò)273
 11.1 用人工神經(jīng)網(wǎng)絡(luò)建立復(fù)雜函數(shù)模型273
11.1.1 單層神經(jīng)網(wǎng)絡(luò)274
11.1.2 多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)275
11.1.3 利用前向傳播激活神經(jīng)網(wǎng)絡(luò)277
 11.2 識(shí)別手寫數(shù)字279
11.2.1 獲取并準(zhǔn)備MNIST數(shù)據(jù)集279
11.2.2 實(shí)現(xiàn)多層感知機(jī)282
11.2.3 神經(jīng)網(wǎng)絡(luò)訓(xùn)練代碼287
11.2.4 評(píng)估神經(jīng)網(wǎng)絡(luò)的性能291
 11.3 訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)295
11.3.1 損失函數(shù)的計(jì)算295
11.3.2 理解反向傳播296
11.3.3 通過反向傳播訓(xùn)練神經(jīng)網(wǎng)絡(luò)297
 11.4 關(guān)于神經(jīng)網(wǎng)絡(luò)的收斂性300
 11.5 關(guān)于神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的*后幾句話300
 11.6 本章小結(jié)301
第12章 用PyTorch并行訓(xùn)練神經(jīng)網(wǎng)絡(luò)302
 12.1 PyTorch和模型的訓(xùn)練性能302
12.1.1 性能挑戰(zhàn)302
12.1.2 什么是PyTorch303
12.1.3 如何學(xué)習(xí)PyTorch304
 12.2 學(xué)習(xí)PyTorch的**步304
12.2.1 安裝PyTorch305
12.2.2 在PyTorch中創(chuàng)建張量306
12.2.3 對(duì)張量形狀和數(shù)據(jù)類型進(jìn)行操作307
12.2.4 張量數(shù)學(xué)運(yùn)算307
12.2.5 拆分、堆疊和連接張量309
 12.3 在PyTorch中構(gòu)建輸入pipeline310
12.3.1 使用已有張量創(chuàng)建PyTorch DataLoader311
12.3.2 將兩個(gè)張量組合成一個(gè)聯(lián)合數(shù)據(jù)集311
12.3.3 亂序、批處理和重復(fù)313
12.3.4 用存儲(chǔ)在本地硬盤的文件創(chuàng)建數(shù)據(jù)集314
12.3.5 從torchvision.datasets庫中獲取數(shù)據(jù)集318
 12.4 在PyTorch中構(gòu)建神經(jīng)網(wǎng)絡(luò)模型321
12.4.1 PyTorch神經(jīng)網(wǎng)絡(luò)模塊322
12.4.2 構(gòu)建線性回歸模型322
12.4.3 使用torch.nn和torch.optim模塊訓(xùn)練模型325
12.4.4 構(gòu)建多層感知機(jī)對(duì)鳶尾花數(shù)據(jù)集分類326
12.4.5 在測試數(shù)據(jù)集上評(píng)估訓(xùn)練好的模型329
12.4.6 保存和重新加載訓(xùn)練好的模型329
 12.5 為多層神經(jīng)網(wǎng)絡(luò)選擇激活函數(shù)330
12.5.1 回顧邏輯函數(shù)331
12.5.2 使用softmax函數(shù)估計(jì)多分類中的類別概率332
12.5.3 使用雙曲正切函數(shù)拓寬輸出范圍333
12.5.4 整流線性單元335
 12.6 本章小結(jié)337
第13章 深入探討PyTorch的工作原理338
 13.1 PyTorch的主要功能338
 13.2 PyTorch的計(jì)算圖339
13.2.1 理解計(jì)算圖339
13.2.2 在PyTorch中創(chuàng)建計(jì)算圖339
 13.3 用于存儲(chǔ)和更新模型參數(shù)的PyTorch張量340
 13.4 通過自動(dòng)微分計(jì)算梯度342
13.4.1 計(jì)算損失函數(shù)關(guān)于可微變量的梯度342
13.4.2 自動(dòng)微分343
13.4.3 對(duì)抗樣本344
 13.5 使用torch.nn模塊簡化常見結(jié)構(gòu)344
13.5.1 使用nn.Sequential實(shí)現(xiàn)模型344
13.5.2 選擇損失函數(shù)345
13.5.3 解決XOR分類問題346
13.5.4 使用nn.Module靈活構(gòu)建模型350
13.5.5 使用PyTorch編寫自定義層352
 13.6 項(xiàng)目1:預(yù)測汽車的燃油效率356
13.6.1 使用特征列357
13.6.2 訓(xùn)練DNN回歸模型360
 13.7 項(xiàng)目2:分類MNIST手寫數(shù)字362 XIX
 13.8 高級(jí)PyTorch API:PyTorch Lightning簡介364
13.8.1 構(gòu)建PyTorch Lightning模型365
13.8.2 為Lightning 設(shè)置數(shù)據(jù)加載器367
13.8.3 使用PyTorch Lightning Trainer類訓(xùn)練模型369
13.8.4 使用TensorBoard評(píng)估模型370
 13.9 本章小結(jié)373
第14章 使用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行分類374
 14.1 卷積神經(jīng)網(wǎng)絡(luò)的組成模塊374
14.1.1 了解卷積神經(jīng)網(wǎng)絡(luò)和層次特征375
14.1.2 離散卷積376
14.1.3 下采樣層383
XX
 14.2 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)385
14.2.1 處理多個(gè)輸入通道385
14.2.2 使用L2范數(shù)和dropout對(duì)神經(jīng)網(wǎng)絡(luò)正則化388
14.2.3 分類任務(wù)的損失函數(shù)390
 14.3 使用PyTorch實(shí)現(xiàn)深度卷積神經(jīng)網(wǎng)絡(luò)392
14.3.1 多層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)392
14.3.2 數(shù)據(jù)加載和預(yù)處理393
14.3.3 使用torch.nn模塊實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)394
 14.4 使用卷積神經(jīng)網(wǎng)絡(luò)對(duì)人臉圖像進(jìn)行微笑分類400
14.4.1 加載CelebA數(shù)據(jù)集400
14.4.2 圖像轉(zhuǎn)換和數(shù)據(jù)增廣401
14.4.3 訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)微笑分類器407
 14.5 本章小結(jié)413
第15章 用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)序列數(shù)據(jù)建模415
 15.1 序列數(shù)據(jù)415
15.1.1 序列數(shù)據(jù)建模415
15.1.2 序列數(shù)據(jù)與時(shí)間序列數(shù)據(jù)416
15.1.3 序列數(shù)據(jù)的表示416
15.1.4 序列建模方法417
 15.2 用于序列數(shù)據(jù)建模的循環(huán)神經(jīng)網(wǎng)絡(luò)418
15.2.1 循環(huán)神經(jīng)網(wǎng)絡(luò)的循環(huán)機(jī)制418
15.2.2 循環(huán)神經(jīng)網(wǎng)絡(luò)激活值計(jì)算419
15.2.3 隱藏層循環(huán)與輸出層循環(huán)421
15.2.4 遠(yuǎn)距離學(xué)習(xí)面臨的問題424
15.2.5 長短期記憶網(wǎng)絡(luò)425
 15.3 在PyTorch中實(shí)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)426
15.3.1 項(xiàng)目1:基于IMDb影評(píng)進(jìn)行情感分析427
15.3.2 項(xiàng)目2:在PyTorch中實(shí)現(xiàn)字符級(jí)語言建模437
 15.4 本章小結(jié)448
第16章 transformer:利用注意力機(jī)制改善自然語言處理效果449
 16.1 帶有注意力機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)449
16.1.1 幫助循環(huán)神經(jīng)網(wǎng)絡(luò)獲取信息的注意力機(jī)制450
16.1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)中*初的注意力機(jī)制451
16.1.3 用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)模型處理輸入數(shù)據(jù)452
16.1.4 根據(jù)上下文向量得到輸出452
16.1.5 計(jì)算注意力權(quán)重453
 16.2 自注意力機(jī)制453
16.2.1 自注意力機(jī)制的基本形式454
16.2.2 自注意力機(jī)制的參數(shù)化:縮放點(diǎn)積注意力457
 16.3 注意力是唯一需要的:*初的transformer460
16.3.1 通過多頭注意力編碼上下文嵌入向量460
16.3.2 學(xué)習(xí)語言模型:解碼器和掩碼多頭注意力464
16.3.3 實(shí)現(xiàn)細(xì)節(jié):位置編碼和層歸一化465
 16.4 利用未標(biāo)注的數(shù)據(jù)構(gòu)建大型語言模型467
16.4.1 預(yù)訓(xùn)練和微調(diào)transformer模型467
16.4.2 使用未標(biāo)注數(shù)據(jù)的GPT模型469
16.4.3 使用GPT2生成新文本471
16.4.4 雙向預(yù)訓(xùn)練的BERT模型474
16.4.5 兩全其美的模型:BART476
 16.5 用PyTorch微調(diào)BERT模型478
16.5.1 加載IMDb影評(píng)數(shù)據(jù)集479
16.5.2 數(shù)據(jù)集分詞481
16.5.3 加載和微調(diào)預(yù)訓(xùn)練BERT模型482
16.5.4 使用Trainer API微調(diào)transformer486
 16.6 本章小結(jié)489 XXI
第17章 用于合成新數(shù)據(jù)的生成對(duì)抗網(wǎng)絡(luò)491
 17.1 生成對(duì)抗網(wǎng)絡(luò)491
17.1.1 自編碼器492
17.1.2 用于合成新數(shù)據(jù)的生成模型493
17.1.3 用生成對(duì)抗網(wǎng)絡(luò)生成新樣本494
17.1.4 理解生成對(duì)抗網(wǎng)絡(luò)模型中生成器和判別器網(wǎng)絡(luò)的損失函數(shù)495
 17.2 從零開始實(shí)現(xiàn)生成對(duì)抗網(wǎng)絡(luò)497
17.2.1 用谷歌Colab訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)模型497
17.2.2 實(shí)現(xiàn)生成器和判別器網(wǎng)絡(luò)499
17.2.3 定義訓(xùn)練數(shù)據(jù)集502
17.2.4 訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)模型504
 17.3 用卷積GAN和Wasserstein GAN提高生成圖像的質(zhì)量510
17.3.1 轉(zhuǎn)置卷積510
17.3.2 批歸一化511
17.3.3 實(shí)現(xiàn)生成器和判別器513
17.3.4 兩個(gè)分布之間的差異度度量520
17.3.5 在生成對(duì)抗網(wǎng)絡(luò)實(shí)踐中使用EM距離523
17.3.6 梯度懲罰523
17.3.7 使用WGANGP實(shí)現(xiàn)深度卷積生成對(duì)抗網(wǎng)絡(luò)524
17.3.8 模式坍塌527
 17.4 其他生成對(duì)抗網(wǎng)絡(luò)應(yīng)用529
 17.5 本章小結(jié)530
XXII
第18章 用于捕獲圖數(shù)據(jù)關(guān)系的圖神經(jīng)網(wǎng)絡(luò)531
 18.1 圖數(shù)據(jù)簡介531
18.1.1 無向圖532
18.1.2 有向圖533
18.1.3 標(biāo)簽圖533
18.1.4 將分子結(jié)構(gòu)表示為圖533
 18.2 理解圖卷積534
18.2.1 圖卷積的基本原理534
18.2.2 實(shí)現(xiàn)一個(gè)基本的圖卷積函數(shù)536
 18.3 用PyTorch從零開始實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)540
18.3.1 定義NodeNetwork模型540
18.3.2 NodeNetwork圖卷積層編碼541
18.3.3 添加一個(gè)全局池化層處理大小不同的圖542
18.3.4 準(zhǔn)備數(shù)據(jù)加載工具545
18.3.5 使用NodeNetwork進(jìn)行預(yù)測548
18.3.6 使用PyTorch Geometric庫實(shí)現(xiàn)圖神經(jīng)網(wǎng)絡(luò)548
 18.4 其他圖神經(jīng)網(wǎng)絡(luò)層和*新的進(jìn)展554
18.4.1 譜圖卷積554
18.4.2 池化555
18.4.3 數(shù)據(jù)歸一化556
18.4.4 圖神經(jīng)網(wǎng)絡(luò)文獻(xiàn)557
 18.5 本章小結(jié)559
第19章 在復(fù)雜環(huán)境中做決策的強(qiáng)化學(xué)習(xí)560
 19.1 從經(jīng)驗(yàn)中學(xué)習(xí)概述560
19.1.1 了解強(qiáng)化學(xué)習(xí)561
19.1.2 智能體與環(huán)境562
 19.2 強(qiáng)化學(xué)習(xí)的理論基礎(chǔ)563
19.2.1 馬爾可夫決策過程563
19.2.2 階段性任務(wù)與持續(xù)性任務(wù)566
19.2.3 強(qiáng)化學(xué)習(xí)術(shù)語566
19.2.4 使用貝爾曼方程的動(dòng)態(tài)規(guī)劃569
 19.3 強(qiáng)化學(xué)習(xí)算法569
19.3.1 動(dòng)態(tài)規(guī)劃570
19.3.2 蒙特卡羅強(qiáng)化學(xué)習(xí)572
19.3.3 時(shí)序差分學(xué)習(xí)573
 19.4 實(shí)現(xiàn)**個(gè)強(qiáng)化學(xué)習(xí)算法575
19.4.1 OpenAI Gym工具包介紹575
19.4.2 用Q學(xué)習(xí)解決網(wǎng)格世界問題584
 19.5 深度Q學(xué)習(xí)概覽588
19.5.1 訓(xùn)練深度Q學(xué)習(xí)網(wǎng)絡(luò)模型589
19.5.2 實(shí)現(xiàn)深度Q學(xué)習(xí)算法591
 19.6 本章小結(jié)及本書總結(jié)595
展開全部

PYTHON機(jī)器學(xué)習(xí):基于PYTORCH和SCIKIT-LEARN 作者簡介

塞巴斯蒂安·拉施卡 (Sebastian Raschka) 獲密歇根州立大學(xué)博士學(xué)位,現(xiàn)在是威斯康星-麥迪遜大學(xué)統(tǒng)計(jì)學(xué)助理教授,從事機(jī)器學(xué)習(xí)和深度學(xué)習(xí)研究。他的研究方向是數(shù)據(jù)受限的小樣本學(xué)習(xí)和構(gòu)建預(yù)測有序目標(biāo)值的深度神經(jīng)網(wǎng)絡(luò)。他還是一位開源貢獻(xiàn)者,擔(dān)任Grid.ai的首席AI教育家,熱衷于傳播機(jī)器學(xué)習(xí)和AI領(lǐng)域知識(shí)。 劉玉溪(海登) [ Yuxi (Hayden) Liu ] 在谷歌公司擔(dān)任機(jī)器學(xué)習(xí)軟件工程師,曾擔(dān)任機(jī)器學(xué)習(xí)科學(xué)家。他是一系列機(jī)器學(xué)習(xí)書籍的作者。他的本書Python Machine Learning By Example在2017年和2018年亞馬遜同類產(chǎn)品中排名,已被翻譯成多種語言。 瓦希德·米爾賈利利 (Vahid Mirjalili) 獲密歇根州立大學(xué)機(jī)械工程和計(jì)算機(jī)科學(xué)雙博士學(xué)位,是一名專注于計(jì)算機(jī)視覺和深度學(xué)習(xí)的科研工作者。

商品評(píng)論(0條)
暫無評(píng)論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網(wǎng)
在線客服
主站蜘蛛池模板: 氧化锆纤维_1800度高温退火炉_1800度高温烧结炉-南京理工宇龙新材料股份有限公司 | 石栏杆_青石栏杆_汉白玉栏杆_花岗岩栏杆 - 【石雕之乡】点石石雕石材厂 | 冷凝锅炉_燃气锅炉_工业燃气锅炉改造厂家-北京科诺锅炉 | 万烁建筑设计院-建筑设计公司加盟,设计院加盟分公司,市政设计加盟 | 无线联网门锁|校园联网门锁|学校智能门锁|公租房智能门锁|保障房管理系统-KEENZY中科易安 | 远程会诊系统-手术示教系统【林之硕】医院远程医疗平台 | 食品机械专用传感器-落料放大器-低价接近开关-菲德自控技术(天津)有限公司 | 超声波清洗机-超声波清洗设备定制生产厂家 - 深圳市冠博科技实业有限公司 | 绿萝净除甲醛|深圳除甲醛公司|测甲醛怎么收费|培训机构|电影院|办公室|车内|室内除甲醛案例|原理|方法|价格立马咨询 | 电子天平-华志电子天平厂家| 山西3A认证|太原AAA信用认证|投标AAA信用证书-山西AAA企业信用评级网 | 小型玉石雕刻机_家用玉雕机_小型万能雕刻机_凡刻雕刻机官网 | 钣金加工厂家-钣金加工-佛山钣金厂-月汇好 | 干粉砂浆设备_干混砂浆生产线_腻子粉加工设备_石膏抹灰砂浆生产成套设备厂家_干粉混合设备_砂子烘干机--郑州铭将机械设备有限公司 | 活性氧化铝球|氧化铝干燥剂|分子筛干燥剂|氢氧化铝粉-淄博同心材料有限公司 | 婚博会2024时间表_婚博会门票领取_婚博会地址-婚博会官网 | 中国玩具展_玩具展|幼教用品展|幼教展|幼教装备展 | CXB船用变压器-JCZ系列制动器-HH101船用铜质开关-上海永上船舶电器厂 | 引领中高档酒店加盟_含舍·美素酒店品牌官网 | 全国冰箱|空调|洗衣机|热水器|燃气灶维修服务平台-百修家电 | 冷柜风机-冰柜电机-罩极电机-外转子风机-EC直流电机厂家-杭州金久电器有限公司 | 智能门锁电机_智能门锁离合器_智能门锁电机厂家-温州劲力智能科技有限公司 | 蔬菜配送公司|蔬菜配送中心|食材配送|饭堂配送|食堂配送-首宏公司 | 飞象网 - 通信人每天必上的网站 全球化工设备网—化工设备,化工机械,制药设备,环保设备的专业网络市场。 | 碳纤维复合材料制品生产定制工厂订制厂家-凯夫拉凯芙拉碳纤维手机壳套-碳纤维雪茄盒外壳套-深圳市润大世纪新材料科技有限公司 | 展厅装修公司|企业展厅设计|展厅制作|展厅搭建—广州展厅装饰公司 | 爆破器材运输车|烟花爆竹运输车|1-9类危险品厢式运输车|湖北江南专用特种汽车有限公司 | 广东健伦体育发展有限公司-体育工程配套及销售运动器材的体育用品服务商 | 新密高铝耐火砖,轻质保温砖价格,浇注料厂家直销-郑州荣盛窑炉耐火材料有限公司 | 彩超机-黑白B超机-便携兽用B超机-多普勒彩超机价格「大为彩超」厂家 | 南京兰江泵业有限公司-水解酸化池潜水搅拌机-絮凝反应池搅拌机-好氧区潜水推进器 | PO膜_灌浆膜及地膜供应厂家 - 青州市鲁谊塑料厂 | 上海赞永| 丽陂特官网_手机信号屏蔽器_Wifi信号干扰器厂家_学校考场工厂会议室屏蔽仪 | 青州开防盗门锁-配汽车芯片钥匙-保险箱钥匙-吉祥修锁店 | 螺纹三通快插接头-弯通快插接头-宁波舜驰气动科技有限公司 | nalgene洗瓶,nalgene量筒,nalgene窄口瓶,nalgene放水口大瓶,浙江省nalgene代理-杭州雷琪实验器材有限公司 | 集装箱展厅-住人集装箱住宿|建筑|房屋|集装箱售楼处-山东锐嘉科技工程有限公司 | 电机修理_二手电机专家-河北豫通机电设备有限公司(原石家庄冀华高压电机维修中心) | 东莞动力锂电池保护板_BMS智能软件保护板_锂电池主动均衡保护板-东莞市倡芯电子科技有限公司 | 中视电广_短视频拍摄_短视频推广_短视频代运营_宣传片拍摄_影视广告制作_中视电广 |