人工智能和深度學習導論 版權信息
- ISBN:9787115584083
- 條形碼:9787115584083 ; 978-7-115-58408-3
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
人工智能和深度學習導論 本書特色
AI全景導覽,構建知識全景:
實踐為王,不僅講解理論,更通過Keras代碼示例,讓你親手實踐機器學習和深度學習的每一個步驟;工具與理論并重,Keras、TensorFlow、pandas,一本書教你如何運用*熱門的AI工具,結合理論深度解析;技術與應用結合,不僅學習如何構建模型,更教你如何分析和優化,實現從理論到應用的無縫對接;跨平臺學習體驗,所有代碼示例均以Python腳本形式提供,無論你使用何種開發環境,都能輕松上手。
人工智能和深度學習導論 內容簡介
本書首先介紹了人工智能的基礎知識,然后分別介紹了機器學習、深度學習、自然語言處理和強化學習中的重點概念和實踐過程,包含邏輯斯諦回歸、k*近鄰、決策樹、隨機森林、支持向量機、卷積神經網絡、循環神經網絡、LSTM、自動編碼器等。此外,本書的附錄部分還分別簡單介紹了Keras、TensorFlow、pandas等人工智能相關的工具。
本書適用于高等院校電子信息類專業的人工智能導論課程,也適合想要對人工智能、機器學習和深度學習快速了解和掌握的專業人士閱讀參考。
人工智能和深度學習導論 目錄
第 1章 人工智能導論 1
1.1 什么是人工智能 1
1.2 圖靈測試 3
1.2.1 圖靈測試的定義 3
1.2.2 詢問者測試 4
1.3 啟發式方法 4
1.4 知識表示 5
1.4.1 基于邏輯的解決方案 5
1.4.2 語義網絡 6
1.5 人工智能和博弈 6
1.6 專家系統 7
1.7 神經計算 8
1.8 演化計算 8
1.9 自然語言處理 9
1.10 生物信息學 10
1.11 人工智能的主要部分 11
1.11.1 機器學習 11
1.11.2 深度學習 11
1.11.3 強化學習 12
1.11.4 機器人學 12
1.11.5 自然語言處理 12
1.12 代碼示例 13
1.13 總結 13
第 2章 機器學習概述 14
2.1 什么是機器學習 14
2.2 機器學習算法的類型 16
2.3 特征工程、特征選擇和特征提取 18
2.4 降維 19
2.4.1 PCA 19
2.4.2 協方差矩陣 20
2.5 使用數據集 20
2.5.1 訓練數據與測試數據 20
2.5.2 什么是交叉驗證 20
2.6 什么是正則化 21
2.6.1 機器學習和特征縮放 21
2.6.2 數據歸一化與標準化 21
2.7 偏差-方差權衡 21
2.8 模型的度量指標 22
2.8.1 R2的局限性 22
2.8.2 混淆矩陣 22
2.8.3 準確率、精確率、召回率 22
2.8.4 ROC曲線 23
2.9 其他有用的統計學術語 23
2.9.1 F1值是什么 24
2.9.2 p值是什么 24
2.10 什么是線性回歸 24
2.10.1 線性回歸與曲線擬合 25
2.10.2 什么時候解是精確值 25
2.10.3 什么是多元分析 25
2.11 其他類型的回歸 26
2.12 使用平面中的線(可選) 26
2.13 用NumPy和matplotlib畫散點圖(1) 28
2.14 用NumPy和matplotlib畫散點圖(2) 30
2.15 用NumPy和matplotlib畫二次散點圖 30
2.16 MSE公式 31
2.16.1 誤差類型列表 32
2.16.2 非線性*小二乘法 32
2.17 手動計算MSE 32
2.18 用np.linspace() API近似線性數據 34
2.19 用np.linspace() API計算MSE 34
2.20 用Keras進行線性回歸 36
2.21 總結 38
第3章 機器學習分類器 40
3.1 什么是分類 40
3.1.1 什么是分類器 40
3.1.2 常見的分類器 41
3.1.3 二元分類與多類別分類 41
3.1.4 多標簽分類 42
3.2 什么是線性分類器 42
3.3 什么是kNN 42
3.4 什么是決策樹 43
3.5 什么是隨機森林 46
3.6 什么是SVM 46
3.7 什么是貝葉斯推理 47
3.7.1 貝葉斯定理 47
3.7.2 一些貝葉斯術語 48
3.7.3 什么是*大后驗假設 48
3.7.4 為什么使用貝葉斯定理 48
3.8 什么是樸素貝葉斯分類器 48
3.9 訓練分類器 49
3.10 評估分類器 49
3.11 什么是激活函數 50
3.11.1 為什么需要激活函數 51
3.11.2 激活函數是如何工作的 51
3.12 常見的激活函數 51
3.12.1 Python中的激活函數 52
3.12.2 Keras中的激活函數 53
3.13 ReLU和ELU激活函數 53
3.13.1 ReLU激活函數 53
3.13.2 ELU激活函數 54
3.14 Sigmoid、Softmax、Softplus和tanh激活函數的相似性 54
3.14.1 Sigmoid激活函數 54
3.14.2 Softmax激活函數 54
3.14.3 Softplus激活函數 54
3.14.4 tanh激活函數 54
3.15 Sigmoid、Softmax和Hardmax激活函數之間的差異 55
3.16 什么是邏輯斯諦回歸 55
3.16.1 設置閾值 55
3.16.2 邏輯斯諦回歸:重要假設 56
3.16.3 線性可分數據 56
3.17 Keras、邏輯斯諦回歸和Iris數據集 56
3.18 總結 58
第4章 深度學習概述 59
4.1 Keras和異或函數XOR 59
4.2 什么是深度學習 61
4.2.1 什么是超參數 62
4.2.2 深度學習體系架構 62
4.2.3 深度學習所能解決的問題 63
4.2.4 未來的挑戰 63
4.3 什么是感知器 63
4.3.1 感知器函數的定義 64
4.3.2 感知器的詳細視圖 64
4.4 人工神經網絡剖析 65
4.4.1 初始化模型的超參數 66
4.4.2 激活函數 66
4.4.3 損失函數 66
4.4.4 優化器 66
4.4.5 學習率 67
4.4.6 丟棄率 67
4.5 什么是反向誤差傳播 67
4.6 什么是多層感知器 67
4.7 數據點是如何被正確分類的 68
4.8 CNN的高階視圖 69
4.8.1 一個極簡的CNN 70
4.8.2 卷積層 70
4.8.3 ReLU激活函數 70
4.8.4 *大池化層 70
4.9 在MNIST數據集上顯示圖像 71
4.10 Keras和MNIST數據集 72
4.11 Keras、CNN和MNIST數據集 73
4.12 用CNN分析音頻信號 75
4.13 總結 76
第5章 深度學習體系架構:RNN和 LSTM 77
5.1 什么是RNN 77
5.1.1 RNN剖析 78
5.1.2 什么是BPTT 78
5.2 在Keras中使用RNN 79
5.3 在Keras中使用RNN和MNIST數據集 80
5.4 在TensorFlow中使用RNN(可選) 81
5.5 什么是LSTM 83
5.5.1 LSTM剖析 83
5.5.2 雙向LSTM 84
5.5.3 LSTM公式 84
5.5.4 LSTM超參數調優 85
5.6 在TensorFlow中使用LSTM(可選) 85
5.7 什么是GRU 87
5.8 什么是自動編碼器 87
5.8.1 自動編碼器和主成分分析 88
5.8.2 什么是可變自動編碼器 89
5.9 什么是GAN 89
5.10 創建GAN 90
5.11 總結 92
第6章 自然語言處理和強化學習 93
6.1 使用NLP 93
6.1.1 NLP技術 94
6.1.2 Transformer架構和NLP 94
6.1.3 Transformer-XL架構 95
6.1.4 Reformer架構 95
6.1.5 NLP和深度學習 95
6.1.6 NLP中的數據預處理任務 95
6.2 流行的NLP算法 95
6.2.1 什么是n-gram 96
6.2.2 什么是skip-gram 96
6.2.3 什么是詞袋 96
6.2.4 什么是詞頻 97
6.2.5 什么是反文檔頻率 97
6.2.6 什么是TF-IDF 98
6.3 什么是詞嵌入 98
6.4 ELMo、ULMFit、OpenAI、BERT和ERNIE 2.0 98
6.5 什么是Translatotron 99
6.6 深度學習和NLP 100
6.7 NLU與NLG 100
6.8 什么是強化學習 101
6.8.1 強化學習的應用 101
6.8.2 NLP與強化學習 102
6.8.3 強化學習中的價值、策略和模型 102
6.9 從NFA到MDP 103
6.9.1 什么是NFA 103
6.9.2 什么是馬爾可夫鏈 103
6.9.3 馬爾可夫決策過程 104
6.10 epsilon貪心算法 104
6.11 貝爾曼方程 105
6.12 強化學習工具包和框架 106
6.13 什么是深度強化學習 107
6.14 總結 108
附錄A Keras簡介 109
A.1 什么是Keras 109
A.1.1 在TF 2中使用Keras命名空間 109
A.1.2 使用tf.keras.layers命名空間 110
A.1.3 使用tf.keras.activations命名空間 110
A.1.4 使用tf.keras.datasets命名空間 111
A.1.5 使用tf.keras.experimental命名空間 111
A.1.6 使用tf.keras中的其他命名空間 112
A.1.7 TF 2 Keras與“獨立”Keras 112
A.2 創建基于Keras的模型 112
A.3 Keras和線性回歸 114
A.4 Keras、MLP和MNIST數據集 115
A.5 Keras、CNN和cifar10數據集 117
A.6 在Keras中調整圖像大小 119
A.7 Keras和提前停止(1) 120
A.8 Keras和提前停止(2) 121
A.9 Keras模型的度量指標 123
A.10 保存和恢復Keras模型 123
A.11 總結 125
附錄B TF 2簡介 126
B.1 什么是TF 2 126
B.1.1 TF 2用例 127
B.1.2 TF 2架構 128
B.1.3 TF 2安裝 128
B.1.4 TF 2和Python的REPL 129
B.2 其他基于TF 2的工具包 129
B.3 TF 2即時執行 130
B.4 TF 2張量、數據類型和原始類型 130
B.4.1 TF 2數據類型 130
B.4.2 TF 2原始類型 131
B.5 TF 2中的常量 131
B.6 TF 2中的變量 132
B.7 tf.rank() API 133
B.8 tf.shape() API 134
B.9 TF 2中的變量(重新審視) 135
B.10 TF 2中的@tf.function是什么 136
B.10.1 @tf.function如何工作 136
B.10.2 TF 2中@tf.function的注意事項 137
B.10.3 tf.print()函數和標準錯誤 138
B.11 在TF 2中使用@tf.function 138
B.11.1 一個未使用@tf.function 的例子 138
B.11.2 一個使用@tf.function 的例子 139
B.11.3 使用@tf.function重載函數的例子 139
B.11.4 TF 2中的AutoGraph是什么 140
B.12 TF 2中的算術運算 141
B.13 TF 2中算術運算的 注意事項 141
B.14 TF 2的內置函數 142
B.15 計算TF 2中的三角 函數值 143
B.16 計算TF 2中的指數值 144
B.17 在TF 2中使用字符串 144
B.18 在TF 2中使用帶有各種張量的運算符 145
B.19 TF 2中的二階張量(1) 146
B.20 TF 2中的二階張量(2) 147
B.21 TF 2中兩個二階張量的 乘法 148
B.22 將Python數組轉換為TF 2 張量 148
B.23 微分和TF 2中的 tf.GradientTape 149
B.24 tf.GradientTape的示例 150
B.24.1 使用tf.GradientTape 的watch()方法 150
B.24.2 將嵌套的循環用于tf.GradientTape 151
B.24.3 其他涉及tf.GradientTape的TF 2張量運算 151
B.24.4 持久的梯度磁帶 152
B.25 谷歌Colaboratory 153
B.26 其他云平臺 154
B.27 總結 154
附錄C pandas簡介 155
C.1 什么是pandas 155
C.1.1 pandas數據幀 155
C.1.2 數據幀和數據清洗任務 156
C.2 帶標簽的pandas數據幀 156
C.3 pandas數值數據幀 157
C.4 pandas布爾數據幀 158
C.5 pandas數據幀和隨機數 159
C.6 組合pandas數據幀(1) 160
C.7 組合pandas數據幀(2) 161
C.8 pandas數據幀的數據處理(1) 161
C.9 pandas數據幀的數據處理(2) 162
C.10 pandas數據幀的數據處理(3) 163
C.11 pandas數據幀和CSV文件 164
C.12 pandas數據幀和Excel電子表格(1) 167
C.13 pandas數據幀和Excel電子表格(2) 167
C.14 讀取具有不同分隔符的數據文件 168
C.15 使用sed命令轉換數據(可選) 169
C.16 選擇、添加和刪除數據幀 中的列 171
C.17 pandas數據幀和散點圖 172
C.18 pandas數據幀和直方圖 173
C.19 pandas數據幀和簡單統計 175
C.20 pandas數據幀的標準化 175
C.21 pandas數據幀、NumPy函數 和大型數據集 177
C.22 使用pandas序列 177
C.22.1 數據來自ndarray 178
C.22.2 來自pandas序列的 pandas數據幀 178
C.23 pandas中有用的單行命令 179
C.24 什么是Jupyter 181
C.24.1 Jupyter特性 181
C.24.2 從命令行啟動Jupyter 181
C.24.3 JupyterLab 182
C.24.4 開發JupyterLab擴展 182
C.25 總結 182
展開全部
人工智能和深度學習導論 作者簡介
[美]奧斯瓦爾德·坎佩薩托(Oswald Campesato),是加州大學圣克拉拉分校的兼職教師,專門研究深度學習、Java、NLP、Android和TensorFlow。他是超過二十五本書的作者/合著者,包括TensorFlow 2 Pocket Primer、Python 3 for Machine Learning和Data Science Fundamentals Pocket Prime