深度學(xué)習(xí) 從零基礎(chǔ)快速入門到項目實踐 版權(quán)信息
- ISBN:9787302668602
- 條形碼:9787302668602 ; 978-7-302-66860-2
- 裝幀:平裝-膠訂
- 冊數(shù):暫無
- 重量:暫無
- 所屬分類:>
深度學(xué)習(xí) 從零基礎(chǔ)快速入門到項目實踐 本書特色
本書是一本深入淺出的深度學(xué)習(xí)入門指南,旨在幫助讀者快速入門深度學(xué)習(xí)。本書從Python的基礎(chǔ)開始,逐步引導(dǎo)讀者步入機器學(xué)習(xí)和深度學(xué)習(xí)的世界。為了確保每個知識點都能被充分理解和掌握,本書提供了詳細的示例代碼供讀者調(diào)試運行,以期更好地理解算法,同時也提供配套PPT和源碼下載供讀者參考,通過閱讀調(diào)試這些代碼可以更好地理解算法原理,并加深對知識的理解。
深度學(xué)習(xí) 從零基礎(chǔ)快速入門到項目實踐 內(nèi)容簡介
本書從Python基礎(chǔ)入手,循序漸進地講到機器學(xué)習(xí)、深度學(xué)習(xí)等領(lǐng)域的算法原理和代碼實現(xiàn),在學(xué)習(xí)算法理論的同時也強調(diào)了代碼工程能力的逐步提高。
本書共6個章,第1章從零基礎(chǔ)介紹Python基礎(chǔ)語法、Python數(shù)據(jù)處理庫NumPy、Pandas、Matplotlib、OpenCV的使用;第2章主要介紹機器學(xué)習(xí)算法的原理并配有代碼實例,方便在理解原理的同時也能寫出代碼;第3章主要介紹深度學(xué)習(xí)框架TensorFlow、Keras、PyTorch的API和網(wǎng)絡(luò)模型的搭建方法,力保讀者能夠掌握主流深度學(xué)習(xí)框架的使用;第4章主要介紹CNN卷積神經(jīng)網(wǎng)絡(luò)各種卷積的特性,并同時代碼實戰(zhàn)了多個經(jīng)典分類網(wǎng)絡(luò);第5章介紹目標(biāo)檢測領(lǐng)域中多個經(jīng)典算法的原理,并配套展現(xiàn)了代碼調(diào)試的過程,將算法原理與代碼進行了結(jié)合,方便更深入地理解算法原理;第6章分享深度學(xué)習(xí)項目的分析和實現(xiàn)過程。
本書精心設(shè)計的算法原理講解、代碼實現(xiàn),不僅適合對深度學(xué)習(xí)感興趣的初學(xué)者,同時對高校學(xué)生、教師、相關(guān)技術(shù)人員、研究人員及從事深度學(xué)習(xí)工程師都有參考價值。
深度學(xué)習(xí) 從零基礎(chǔ)快速入門到項目實踐 目錄
教學(xué)課件(PPT)
本書源碼
第1章Python編程基礎(chǔ)
1.1環(huán)境搭建
1.2基礎(chǔ)數(shù)據(jù)類型
1.2.1數(shù)值型
1.2.2字符串
1.2.3元組
1.2.4列表
1.2.5字典
1.2.6集合
1.2.7數(shù)據(jù)類型的轉(zhuǎn)換
1.3條件語句
1.4循環(huán)語句
1.5函數(shù)
1.6類
1.7文件處理
1.8異常處理
1.9模塊與包
1.10包的管理
1.11NumPy簡介
1.11.1NDArray的創(chuàng)建
1.11.2NDArray索引與切片
1.11.3NDArray常用運算函數(shù)
1.11.4NDArray廣播機制
1.12Pandas簡介
1.12.1Pandas對象的創(chuàng)建
1.12.2Pandas的索引與切片
1.12.3Pandas常用統(tǒng)計函數(shù)
1.12.4Pandas文件操作
1.13Matplotlib簡介
1.13.1Matplotlib基本使用流程
1.13.2Matplotlib繪直方圖、餅圖等
1.13.3Matplotlib繪三維圖像
1.14OpenCV簡介
1.14.1圖片的讀取和存儲
1.14.2畫矩形、圓形等
1.14.3在圖中增加文字
1.14.4讀取視頻或攝像頭中的圖像
第2章機器學(xué)習(xí)基礎(chǔ)
2.1HelloWorld之KNN算法
2.1.1KNN算法原理
2.1.2KNN算法代碼實現(xiàn)
2.2梯度下降
2.2.1什么是梯度下降
2.2.2梯度下降的代碼實現(xiàn)
2.2.3SGD、BGD和MBGD
2.2.4Momentum優(yōu)化算法
2.2.5NAG優(yōu)化算法
2.2.6AdaGrad優(yōu)化算法
2.2.7RMSProp優(yōu)化算法
2.2.8AdaDelta優(yōu)化算法
2.2.9Adam優(yōu)化算法
2.2.10學(xué)習(xí)率的衰減
2.3線性回歸
2.3.1梯度下降求解線性回歸
2.3.2梯度下降求解多元線性回歸
2.4邏輯回歸
2.4.1*大似然估計
2.4.2梯度下降求解邏輯回歸
2.5聚類算法
2.6神經(jīng)網(wǎng)絡(luò)
2.6.1什么是神經(jīng)網(wǎng)絡(luò)
2.6.2反向傳播算法
2.6.3Softmax反向傳播
2.7欠擬合與過擬合
2.8正則化
2.9梯度消失與梯度爆炸
第3章深度學(xué)習(xí)框架
3.1基本概念
3.2環(huán)境搭建
3.3TensorFlow基礎(chǔ)函數(shù)
3.3.1TensorFlow初始類型
3.3.2TensorFlow指定設(shè)備
3.3.3TensorFlow數(shù)學(xué)運算
3.3.4TensorFlow維度變化
3.3.5TensorFlow切片取值
3.3.6TensorFlow中g(shù)ather取值
3.3.7TensorFlow中布爾取值
3.3.8TensorFlow張量合并
3.3.9TensorFlow網(wǎng)格坐標(biāo)
3.3.10TensorFlow自動求梯度
3.4TensorFlow中的Keras模型搭建
3.4.1tf.keras簡介
3.4.2基于tf.keras.Sequential模型搭建
3.4.3繼承tf.keras.Model類模型搭建
3.4.4函數(shù)式模型搭建
3.5TensorFlow中模型的訓(xùn)練方法
3.5.1使用model.fit訓(xùn)練模型
3.5.2使用model.train_on_batch訓(xùn)練模型
3.5.3自定義模型訓(xùn)練
3.6TensorFlow中Metrics評價指標(biāo)
3.6.1準(zhǔn)確率
3.6.2精確率
3.6.3召回率
3.6.4PR曲線
3.6.5F1Score
3.6.6ROC曲線
3.6.7AUC曲線
3.6.8混淆矩陣
3.7TensorFlow中的推理預(yù)測
3.8PyTorch搭建神經(jīng)網(wǎng)絡(luò)
3.8.1PyTorch中將數(shù)據(jù)轉(zhuǎn)換為張量
3.8.2PyTorch指定設(shè)備
3.8.3PyTorch數(shù)學(xué)運算
3.8.4PyTorch維度變化
3.8.5PyTorch切片取值
3.8.6PyTorch中g(shù)ather取值
3.8.7PyTorch中布爾取值
3.8.8PyTorch張量合并
3.8.9PyTorch模型搭建
3.8.10PyTorch模型自定義訓(xùn)練
3.8.11PyTorch調(diào)用Keras訓(xùn)練
3.8.12PyTorch調(diào)用TorchMetrics評價指標(biāo)
3.8.13PyTorch中推理預(yù)測
第4章卷積神經(jīng)網(wǎng)絡(luò)
4.1卷積
4.1.1為什么用卷積
4.1.2單通道卷積計算
4.1.3多通道卷積計算
4.1.4卷積padding和valid
4.1.5感受野
4.1.6卷積程序計算過程
4.2池化
4.3卷積神經(jīng)網(wǎng)絡(luò)的組成要素
4.4常見卷積分類
4.4.1分組卷積
4.4.2逐點卷積
4.4.3深度可分離卷積
4.4.4空間可分離卷積
4.4.5空洞卷積
4.4.6轉(zhuǎn)置卷積
4.4.7可變形卷積
4.5卷積神經(jīng)網(wǎng)絡(luò)LeNet5
4.5.1模型介紹
4.5.2代碼實戰(zhàn)
4.6深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet
4.6.1模型介紹
4.6.2代碼實戰(zhàn)
4.7使用重復(fù)元素的網(wǎng)絡(luò)VGG
4.7.1模型介紹
4.7.2代碼實戰(zhàn)
4.8合并連接網(wǎng)絡(luò)GoogLeNet
4.8.1模型介紹
4.8.2代碼實戰(zhàn)
4.9殘差網(wǎng)絡(luò)ResNet
4.9.1殘差塊
4.9.2歸一化
4.9.3模型介紹
4.9.4代碼實戰(zhàn)
4.10輕量級網(wǎng)絡(luò)MobiLeNet
4.10.1模型介紹
4.10.2注意力機制
4.10.3代碼實戰(zhàn)
4.11輕量級網(wǎng)絡(luò)ShuffLeNet
4.11.1模型介紹
4.11.2代碼實戰(zhàn)
4.12重參數(shù)網(wǎng)絡(luò)RepVGGNet
4.12.1模型介紹
4.12.2代碼實戰(zhàn)
第5章目標(biāo)檢測
5.1標(biāo)簽處理及代碼
5.2開山之作RCNN
5.2.1模型介紹
5.2.2代碼實戰(zhàn)選擇區(qū)域搜索
5.2.3代碼實戰(zhàn)正負樣本選擇
5.2.4代碼實戰(zhàn)特征提取
5.2.5代碼實戰(zhàn)SVM分類訓(xùn)練
5.2.6代碼實戰(zhàn)邊界框回歸訓(xùn)練
5.2.7代碼實戰(zhàn)預(yù)測推理
5.3兩階段網(wǎng)絡(luò)Faster RCNN
5.3.1模型介紹
5.3.2代碼實戰(zhàn)RPN、ROI模型搭建
5.3.3代碼實戰(zhàn)RPN損失函數(shù)及訓(xùn)練
5.3.4代碼實戰(zhàn)ROI損失函數(shù)及訓(xùn)練
5.3.5代碼實戰(zhàn)預(yù)測推理
5.4單階段多尺度檢測網(wǎng)絡(luò)SSD
5.4.1模型介紹
5.4.2代碼實戰(zhàn)模型搭建
5.4.3代碼實戰(zhàn)建議框的生成
5.4.4代碼實戰(zhàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.4.5代碼實戰(zhàn)預(yù)測推理
5.5單階段速度快的檢測網(wǎng)絡(luò)YOLOv1
5.5.1模型介紹
5.5.2代碼實戰(zhàn)模型搭建
5.5.3無建議框時標(biāo)注框編碼
5.5.4代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.5.5代碼實戰(zhàn)預(yù)測推理
5.6單階段速度快的檢測網(wǎng)絡(luò)YOLOv2
5.6.1模型介紹
5.6.2代碼實戰(zhàn)模型搭建
5.6.3代碼實戰(zhàn)聚類得到建議框?qū)捄透?5.6.4代碼實戰(zhàn)建議框的生成
5.6.5代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.6.6代碼實戰(zhàn)預(yù)測推理
5.7單階段速度快多檢測頭網(wǎng)絡(luò)YOLOv3
5.7.1模型介紹
5.7.2代碼實戰(zhàn)模型搭建
5.7.3代碼實戰(zhàn)建議框的生成
5.7.4代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.7.5代碼實戰(zhàn)預(yù)測推理
5.8單階段速度快多檢測頭網(wǎng)絡(luò)YOLOv4
5.8.1模型介紹
5.8.2代碼實戰(zhàn)模型搭建
5.8.3代碼實戰(zhàn)建議框的生成
5.8.4代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.8.5代碼實戰(zhàn)預(yù)測推理
5.9單階段速度快多檢測頭網(wǎng)絡(luò)YOLOv5
5.9.1模型介紹
5.9.2代碼實戰(zhàn)模型搭建
5.9.3代碼實戰(zhàn)建議框的生成
5.9.4代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.9.5代碼實戰(zhàn)預(yù)測推理
5.10單階段速度快多檢測頭網(wǎng)絡(luò)YOLOv7
5.10.1模型介紹
5.10.2代碼實戰(zhàn)模型搭建
5.10.3代碼實戰(zhàn)建議框的生成
5.10.4代碼實現(xiàn)損失函數(shù)的構(gòu)建及訓(xùn)練
5.10.5代碼實戰(zhàn)預(yù)測推理
5.11數(shù)據(jù)增強
5.11.1數(shù)據(jù)增強的作用
5.11.2代碼實現(xiàn)CutOut數(shù)據(jù)增強
5.11.3代碼實現(xiàn)MixUp數(shù)據(jù)增強
5.11.4代碼實現(xiàn)隨機復(fù)制Label數(shù)據(jù)增強
5.11.5代碼實現(xiàn)Mosic數(shù)據(jù)增強
第6章項目實戰(zhàn)
6.1計算機視覺項目的工作流程
6.2條形碼項目實戰(zhàn)
6.2.1項目背景分析
6.2.2整體技術(shù)方案
6.2.3數(shù)據(jù)分布分析
6.2.4參數(shù)設(shè)置
6.2.5訓(xùn)練結(jié)果分析
6.2.6OpenCV DNN實現(xiàn)推理
參考文獻
展開全部
深度學(xué)習(xí) 從零基礎(chǔ)快速入門到項目實踐 作者簡介
文青山,項目經(jīng)理,從事IoT、人工智能等領(lǐng)域的質(zhì)量管理和研發(fā)工作十余年,擁有豐富的研發(fā)及團隊管理經(jīng)驗,曾主導(dǎo)過CMMI3及ISO 9001質(zhì)量體系認證,曾供職比亞迪、國泰安、隨手科技等公司,在深度學(xué)習(xí)工程實戰(zhàn)、軟件質(zhì)量管理、軟件研發(fā)管理等領(lǐng)域擁有豐富的經(jīng)驗。