-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
神經網絡與深度學習 版權信息
- ISBN:9787111686859
- 條形碼:9787111686859 ; 978-7-111-68685-9
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
神經網絡與深度學習 本書特色
適讀人群 :人工智能相關專業高年級本科生、研究生以及相關從業人員本書是神經網絡與深度學習經典教材的中譯版,作譯者均為領域專家,適合作為人工智能相關專業的教材,也具有很高的學術價值及實用價值。本書從神經網絡基礎開始介紹,重點討論了傳統機器學習和神經網絡之間的關系,并對支持向量機、線性/邏輯回歸、奇異值分解、矩陣分解、推薦系統和特征工程方法word2vec進行了研究。隨后介紹神經網絡的基本原理,詳細討論了訓練和正則化,還介紹了徑向基函數網絡和受限玻爾茲曼機。以神經網絡的高級主題作為結尾,討論了循環神經網絡和卷積神經網絡,以及深度強化學習、神經圖靈機、Kohonen自組織映射和生成對抗網絡等。 本書作者還配套了習題、答案及PPT,以幫助課堂教學。在可能的情況下,突出顯示以應用程序為中心的視圖,以便提供對每一類技術的實際用途的理解。
神經網絡與深度學習 內容簡介
本書涵蓋了經典和現代的深度學習模型。章節分為三類:第1部分為神經網絡的基礎。許多傳統的機器學習模型可以理解為神經網絡的特殊情況。前兩章的重點是理解傳統機器學習和神經網絡之間的關系。支持向量機、線性/邏輯回歸、奇異值分解、矩陣分解和推薦系統都是神經網絡的特例。本書將這些方法與特征工程方法如word2vec一起進行了研究。第2部分是神經網絡的基本原理。訓練和正則化的詳細討論在第3章和第4章提供。第5章和第6章介紹了徑向基函數(RBF)網絡和受限的玻爾茲曼機。第3部分是神經網絡的高級主題:第7章和第8章討論了循環神經網絡和卷積神經網絡。第9章和第10章介紹了幾個高級主題,如深度強化學習、神經圖像機、Kohonen自組織映射和生成對抗網絡。這本書是為研究生、研究人員和實踐者編寫的。大量的練習和一個解決方案手冊,以幫助在課堂教學。在可能的情況下,突出顯示以應用程序為中心的視圖,以便提供對每一類技術的實際用途的理解。
神經網絡與深度學習 目錄
譯者序
前言
致謝
作者簡介
第1章神經網絡概論111簡介1
12神經網絡的基本架構3
121單層計算網絡:感知機3
122多層神經網絡13
123多層網絡即計算圖15
13利用反向傳播訓練神經網絡16
14神經網絡訓練中的實際問題19
141過擬合問題19
142梯度消失與梯度爆炸問題22
143收斂問題22
144局部*優和偽*優22
145計算上的挑戰23
15復合函數的能力之謎23
151非線性激活函數的重要性25
152利用深度以減少參數26
153非常規網絡架構27
16常見網絡架構28
161淺層模型模擬基礎機器學習方法28
162徑向基函數網絡29
163受限玻爾茲曼機29
164循環神經網絡30
165卷積神經網絡31
166層次特征工程與預訓練模型32
17高級主題34
171強化學習34
172分離數據存儲和計算34
173生成對抗網絡35
18兩個基準35
181MNIST手寫數字數據庫35
182ImageNet數據庫36
19總結37
110參考資料說明37
1101視頻講座38
1102軟件資源39
111練習39
第2章基于淺層神經網絡的機器學習41
21簡介41
22二分類模型的神經架構42
221復習感知機42
222*小二乘回歸44
223邏輯回歸47
224支持向量機49
23多分類模型的神經架構50
231多分類感知機51
232WestonWatkins支持向量機52
233多重邏輯回歸(softmax分類器)53
234應用于多分類的分層softmax54
24反向傳播可以用于特征選擇和神經網絡的可解釋性54
25使用自編碼器進行矩陣分解55
251自編碼器的基本原則55
252非線性激活函數59
253深度自編碼器60
254應用于離群點檢測62
255當隱藏層比輸入層維數高時63
256其他應用63
257推薦系統:行索引到行值的預測65
258討論67
26word2vec:簡單神經架構的應用67
261連續詞袋的神經嵌入68
262skipgram模型的神經嵌入70
263word2vec(SGNS)是邏輯矩陣分解74
264原始skipgram模型是多項式矩陣分解76
27圖嵌入的簡單神經架構76
271處理任意數量的邊78
272多項式模型78
273與DeepWalk和node2vec的聯系78
28總結78
29參考資料說明79
210練習80
第3章深度神經網絡的訓練8231簡介82
32反向傳播的詳細討論83
321計算圖抽象中的反向傳播83
322前來拯救的動態規劃87
323使用激活后變量的反向傳播88
324使用激活前變量的反向傳播89
325不同激活函數的更新示例91
326以向量為中心的反向傳播的解耦視圖92
327多輸出節點及隱藏節點下的損失函數94
328小批量隨機梯度下降95
329用于解決共享權重的反向傳播技巧96
3210檢查梯度計算的正確性97
33設置和初始化問題98
331調整超參數98
332特征預處理99
333初始化100
34梯度消失和梯度爆炸問題101
341對梯度比例影響的幾何理解102
342部分解決:激活函數的選擇103
343死亡神經元和“腦損傷”104
35梯度下降策略105
351學習率衰減105
352基于動量的學習106
353參數特異的學習率108
354懸崖和高階不穩定性111
355梯度截斷112
356二階導數112
357Polyak平均118
358局部極小值和偽極小值119
36批歸一化120
37加速與壓縮的實用技巧123
371GPU加速123
372并行和分布式實現125
373模型壓縮的算法技巧126
38總結128
39參考資料說明128
310練習130
第4章讓深度學習器學會泛化132
41簡介132
42偏差方差權衡135
43模型調優和評估中的泛化問題138
431用留出法和交叉驗證法進行評估139
432大規模訓練中的問題140
433如何檢測需要收集更多的數據141
44基于懲罰的正則化141
441與注入噪聲的聯系142
442L1正則化143
443選擇L1正則化還是L2正則化143
444對隱藏單元進行懲罰:學習稀疏表示144
45集成方法145
451裝袋和下采樣145
452參數模型選擇和平均146
453隨機連接刪除146
454Dropout147
455數據擾動集成149
46早停149
47無監督預訓練150
471無監督預訓練的變體153
472如何進行監督預訓練154
48繼續學習與課程學習154
481繼續學習155
482課程學習156
49共享參數156
410無監督應用中的正則化157
4101基于值的懲罰:稀疏自編碼器157
4102噪聲注入:去噪自編碼器157
4103基于梯度的懲罰:收縮自編碼器158
4104隱藏層概率結構:變分自編碼器161
411總結166
412參考資料說明166
413練習168
第5章徑向基函數網絡169
51簡介169
52RBF網絡的訓練171
521訓練隱藏層171
神經網絡與深度學習 作者簡介
查魯·C. 阿加沃爾(Charu C. Aggarwal)是位于美國紐約州約克敦海茨的IBM T. J. Watson 研究中心的杰出研究員,于1996年獲麻省理工學院博士學位。他發表了350多篇論文,擁有80多項專利,撰寫或編著了18本圖書(涵蓋數據挖掘、機器學習、推薦系統和離群點分析等領域)。由于其專利的商業價值,IBM三次授予他“創新大師”稱號。他曾獲EDBT會議頒發的久經考驗獎(2014)和IEEE ICDM研究貢獻獎(2015)。他曾擔任數據挖掘領域許多大型會議的聯席程序主席或聯席總主席,目前是ACM SIGKDD Explorations和ACM Transactions on Knowledge Discovery from Data的主編。他由于對知識發現和數據挖掘算法的貢獻而當選了SIAM、ACM和IEEE的會士。
- >
李白與唐代文化
- >
詩經-先民的歌唱
- >
我與地壇
- >
企鵝口袋書系列·偉大的思想20:論自然選擇(英漢雙語)
- >
經典常談
- >
伯納黛特,你要去哪(2021新版)
- >
羅曼·羅蘭讀書隨筆-精裝
- >
苦雨齋序跋文-周作人自編集