-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
深度學習500問:AI工程師面試寶典 版權信息
- ISBN:9787121389375
- 條形碼:9787121389375 ; 978-7-121-38937-5
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
深度學習500問:AI工程師面試寶典 本書特色
作者在香港中文大學(深圳)工作時,對機器視覺有著深入的理解,作者結合實戰經驗,牽頭出版了這本書,這本書將極大地提高深度學習愛好者的理論水平和動手能力。 香港中文大學(深圳)研究員 張家銘 本書兼顧了理論和實踐,循序漸進地闡述深度學習的基本概念及其常用模型,從算法的每一個知識點出發,力求讓讀者掌握算法的基本原理;同時通過具體的案例,讓讀者加深對算法的認識,從而更好掌握和使用這些算法。 《Python機器算法》作者 趙志勇 這本書介紹了深度學習領域中常見的問題,這些問題所覆蓋的領域較廣,看似獨立,實際上又有一定的關聯性。在實際應用中,這本書可以作為工具書即查即用。 中國科學院大學博士、順豐科技算法總工程師 吳登祿 本書由淺入深地對深度學習進行了系統性介紹,其中既有算法原理,也有應用實例,可作為初學者的入門讀物,也可作為從業者的參考手冊 阿里巴巴高級算法專家,《從零開始構建企業級推薦系統》作者 張相於 該書比較全面地整理和總結了機器學習領域的相關問題,能幫助讀者系統地了解整個領域的知識點。 《TensorFlow:實戰Google深度學習框架(第2版)》作者,知衣科技創始人 鄭澤宇這本書深入淺出,非常適合深度學習初學者閱讀。其內容較好地解答了初學者的疑惑,能使讀者收獲頗豐! 中國科學院助理研究員 蔣仁奎 這是一本兼具廣度與深度的書,將深度學習知識框架的全景圖呈現在讀者面前,能夠讓讀者系統地了解、掌握深度學習的相關知識,從理論到工程實踐都有涉及,將人工智能“是什么(概念)、為什么(原理)、怎么做(實踐)”三個問題充分地結合了起來。 《機器學習從入門到入職》作者 張威 該書相關內容在GitHub和知乎等平臺已經受到了很多網友的關注和認可,為什么?因為其在專業、嚴謹的基本標準之上,還體現了一個研究者自己學習和總結的真實成果,并結合了專業社區平臺眾多網友的共同努力,此書的實用性是非常突出的,是人工智能與深度學習大體系下很有意義的一本著作。我認為應該大力鼓勵這樣的圖書類型,這樣的成書方式也值得贊揚。 億歐公司副總裁,億歐智庫創始院長 由天宇《深度學習500問》凝聚了諸位作者在工作、學習中積累的寶貴經驗,是一本系統介紹深度學習的好書,對于有志從事AI工作或已在AI行業工作的朋友,有很好的指導作用,相信各位讀者都能從中受益。 《Python極簡講義:一本書入門數據分析與機器學習》作者 張玉宏
深度學習500問:AI工程師面試寶典 內容簡介
本書系統地描述了深度學習的基本理論算法及應用。全書共14章,~3章論述了數學基礎、機器學習基礎和深度學習基礎;第4~7章介紹了一些經典網絡及計算機視覺領域中常用的CNN、RNN、GAN等網絡結構技術;第8~9章介紹了深度學習在計算機視覺領域的目標檢測及圖像分割兩大應用;0~14章介紹了計算機視覺領域主要的優化方法及思路等,包括遷移學習、網絡架構及訓練、網絡優化技巧、超參數調整及模型的壓縮和加速等。本書凝聚了眾多一線科研人員及工程師的經驗,旨在培養讀者發現問題、解決問題、擴展問題的能力。本書內容取材于編者在日常學習過程中總結的知識點及各大公司常見的筆試、面試題。本書可為高等院校計算機科學、信息科學、人工智能、控制科學與工程、電子科學與技術等領域的研究及教學人員提供參考,也可為相關專業本科生及研究生提供思考方向,還可為深度學習及計算機視覺領域的初、中級研究人員和工程技術人員提供參考,尤其適合需要查漏補缺的應聘者及提供相關崗位的面試官閱讀。
深度學習500問:AI工程師面試寶典 目錄
第1章 數學基礎 1
1.1 向量和矩陣 1
1.1.1 標量、向量、矩陣和張量 1
1.1.2 張量與矩陣的區別 2
1.1.3 矩陣和向量相乘的結果 2
1.1.4 向量和矩陣的范數歸納 2
1.1.5 判斷一個矩陣是否為正定矩陣 4
1.2 導數和偏導數 5
1.2.1 導數偏導計算 5
1.2.2 導數和偏導數的區別 6
1.3 特征值和特征向量 6
1.3.1 特征值分解 6
1.3.2 奇異值和特征值的關系 6
1.4 概率分布與隨機變量 7
1.4.1 機器學習為什么要使用概率 7
1.4.2 變量與隨機變量的區別 7
1.4.3 隨機變量與概率分布的聯系 8
1.4.4 離散型隨機變量和概率質量函數 8
1.4.5 連續型隨機變量和概率密度函數 8
1.4.6 舉例理解條件概率 9
1.4.7 聯合概率與邊緣概率的區別和聯系 9
1.4.8 條件概率的鏈式法則 10
1.4.9 獨立性和條件獨立性 10
1.5 常見概率分布 11
1.5.1 伯努利分布 11
1.5.2 高斯分布 11
1.5.3 何時采用正態分布 12
1.5.4 指數分布 12
1.5.5 Laplace分布 13
1.5.6 Dirac分布和經驗分布 13
1.6 期望、方差、協方差、相關系數 13
1.6.1 期望 13
1.6.2 方差 14
1.6.3 協方差 14
1.6.4 相關系數 15
第2章 機器學習基礎 16
2.1 基本概念 16
2.1.1 大話機器學習本質 16
2.1.2 什么是神經網絡 16
2.1.3 各種常見算法圖示 17
2.1.4 計算圖的導數計算 17
2.1.5 理解局部*優與全局*優 18
2.1.6 大數據與深度學習之間的關系 19
2.2 機器學習的學習方式 20
2.2.1 監督學習 20
2.2.2 非監督學習 20
2.2.3 半監督學習 20
2.2.4 弱監督學習 20
2.2.5 監督學習模型的搭建步驟 21
2.3 分類算法 22
2.3.1 常用分類算法的優缺點 22
2.3.2 分類算法的評估方法 23
2.3.3 正確率能否很好地評估分類算法 25
2.3.4 什么樣的分類器是*好的 26
2.4 邏輯回歸 26
2.4.1 回歸的種類 26
2.4.2 邏輯回歸適用性 27
2.4.3 邏輯回歸與樸素貝葉斯的區別 27
2.4.4 線性回歸與邏輯回歸的區別 27
2.5 代價函數 28
2.5.1 為什么需要代價函數 28
2.5.2 代價函數作用原理 28
2.5.3 常見代價函數 30
2.5.4 為什么代價函數要非負 31
2.5.5 為什么用交叉熵代替二次代價函數 31
2.6 損失函數 32
2.6.1 什么是損失函數 32
2.6.2 常見的損失函數 32
2.6.3 邏輯回歸為什么使用對數損失函數 34
2.6.4 對數損失函數如何度量損失 34
2.7 梯度下降法 35
2.7.1 梯度下降法的作用 36
2.7.2 梯度下降法的直觀理解 36
2.7.3 梯度下降法算法描述 37
2.7.4 梯度下降法的缺點 38
2.7.5 如何對梯度下降法進行調優 38
2.7.6 隨機梯度下降和批量梯度下降的區別 38
2.7.7 各種梯度下降法性能比較 40
2.8 線性判別分析 40
2.8.1 LDA思想總結 40
2.8.2 圖解LDA核心思想 41
2.8.3 二類LDA算法原理 41
2.8.4 LDA算法流程總結 42
2.8.5 LDA和PCA的異同 43
2.8.6 LDA的優缺點 43
2.9 主成分分析 43
2.9.1 圖解PCA核心思想 43
2.9.2 PCA算法推理 44
2.9.3 PCA算法流程總結 45
2.9.4 PCA思想總結 46
2.9.5 PCA算法的優缺點 46
2.9.6 降維的必要性及目的 46
2.9.7 KPCA與PCA的區別 47
2.10 模型評估 47
2.10.1 模型評估常用方法 48
2.10.2 誤差、偏差和方差的區別和聯系 48
2.10.3 為什么使用標準差 49
2.10.4 經驗誤差與泛化誤差 50
2.10.5 圖解欠擬合與過擬合 50
2.10.6 如何解決欠擬合與過擬合 52
2.10.7 交叉驗證的主要作用 52
2.10.8 理解K折交叉驗證 53
2.10.9 理解混淆矩陣 53
2.10.10 理解查準率與查全率 53
2.10.11 理解ROC與AUC 54
2.10.12 如何繪制ROC曲線 55
2.10.13 如何計算TPR和FPR 56
2.10.14 如何計算AUC 58
2.10.15 直觀理解AUC 58
2.10.16 ROC評估分類器 60
2.10.17 代價敏感錯誤率與代價曲線 60
2.10.18 比較檢驗方法 61
2.11 決策樹 61
2.11.1 決策樹的基本原理 62
2.11.2 決策樹的生成過程 62
2.11.3 決策樹學習基本算法步驟 62
2.11.4 決策樹算法的優缺點 63
2.11.5 決策樹和熵的聯系 63
2.11.6 熵的概念及定義 63
2.11.7 理解信息增益 64
2.11.8 決策樹中熵、條件熵和信息增益的聯系 64
2.11.9 決策樹算法中剪枝的作用及策略 65
2.12 支持向量機(SVM) 65
2.12.1 什么是SVM 65
2.12.2 SVM能解決的問題 66
2.12.3 核函數特點及其作用 67
2.12.4 SVM為什么引入對偶問題 67
2.12.5 如何理解SVM中的對偶問題 67
2.12.6 常見的核函數 69
2.12.7 SVM的主要特點 69
2.12.8 SVM的主要缺點 70
2.12.9 邏輯回歸與SVM的異同 70
2.13 貝葉斯分類器 72
2.13.1 貝葉斯分類器的基本原理 72
2.13.2 樸素貝葉斯分類器 72
2.13.3 舉例理解樸素貝葉斯分類器 73
2.13.4 半樸素貝葉斯分類器 75
2.13.5 極大似然估計和貝葉斯估計的聯系與區別 75
2.13.6 極大似然估計原理 76
2.13.7 圖解極大似然估計 76
2.14 EM算法 77
2.14.1 EM算法的基本思想 77
2.14.2 EM算法推導 77
2.14.3 圖解EM算法 78
2.14.4 EM算法流程 79
2.15 降維和聚類 79
2.15.1 圖解為什么會產生維數災難 79
2.15.2 怎樣避免維數災難 83
2.15.3 聚類和降維 83
2.15.4 聚類算法優劣的衡量標準 84
2.15.5 聚類和分類 85
2.15.6 聚類算法的性能比較 85
2.15.7 4種常用聚類方法比較 85
第3章 深度學習基礎 89
3.1 基本概念 89
3.1.1 神經網絡的類型 89
3.1.2 神經網絡的常用模型結構 92
3.1.3 深度學習和機器學習的區別與聯系 93
3.1.4 為什么使用深層表示 93
3.1.5 深度學習架構分類 94
3.1.6 如何選擇深度學習開發平臺 94
3.2 神經網絡計算 95
3.2.1 前向傳播和反向傳播 95
3.2.2 如何計算神經網絡的輸出 96
3.2.3 如何計算卷積神經網絡輸出值 97
3.2.4 如何計算池化層輸出值 100
3.2.5 反向傳播實例 101
3.2.6 神經網絡更“深”的意義 104
3.3 激活函數 104
3.3.1 為什么需要激活函數 104
3.3.2 為什么激活函數需要非線性函數 105
3.3.3 常見的激活函數及其圖像 105
3.3.4 常見激活函數的導數計算 107
3.3.5 激活函數有哪些性質 108
3.3.6 如何選擇激活函數 108
3.3.7 為什么tanh收斂速度比sigmoid快 109
3.3.8 Relu激活函數的優點 109
3.3.9 理解Relu激活函數的稀疏激活性 109
3.3.10 什么時候可以用線性激活函數 109
3.3.11 softmax函數的定義及作用 110
3.3.12 softmax函數如何應用于多分類 110
3.4 BATCH SIZE 112
3.4.1 為什么需要Batch Size 112
3.4.2 如何選擇Batch Size值 112
3.4.3 調節Batch Size對訓練效果的影響 113
3.4.4 在合理范圍內增大Batch Size的好處 113
3.4.5 盲目增大Batch Size的壞處 114
3.5 歸一化 114
3.5.1 理解歸一化含義 114
3.5.2 歸一化和標準化的聯系與區別 114
3.5.3 為什么要歸一化或標準化 115
3.5.4 圖解為什么要歸一化 115
3.5.5 為什么歸一化能提高求*優解速度 115
3.5.6 歸一化有哪些類型 116
3.5.7 局部響應歸一化作用 116
3.5.8 局部響應歸一化原理 117
3.5.9 什么是批歸一化 118
3.5.10 批歸一化的優點 118
3.5.11 批歸一化算法流程 118
3.5.12 批歸一化和組歸一化比較 119
3.5.13 權重歸一化和批歸一化比較 119
3.5.14 批歸一化適用范圍 120
3.5.15 BN、LN、IN和GN的對比 120
3.6 參數初始化 121
3.6.1 參數初始化應滿足的條件 121
3.6.2 常用的幾種初始化方式 121
3.6.3 全0初始化帶來的問題 121
3.6.4 全都初始化為同樣的值 122
3.6.5 初始化為小的隨機數 123
3.6.6 用 校準方差 123
3.7 預訓練與微調 123
3.7.1 什么是預訓練和微調 123
3.7.2 預訓練和微調的作用 124
3.7.3 預訓練模型的復用 124
3.7.4 預訓練和遷移學習 125
3.7.5 微調時網絡參數是否更新 125
3.7.6 微調模型的三種狀態 125
3.7.7 為什么深層神經網絡難以訓練 125
3.8 超參數 127
3.8.1 超參數有哪些 127
3.8.2 參數和模型的關系 127
3.8.3 參數和超參數的區別 127
3.8.4 如何尋找超參數的*優值 128
3.8.5 超參數搜索的一般過程 128
3.9 學習率 129
3.9.1 學習率的作用 129
3.9.2 學習率衰減的常用參數 129
3.9.3 常用的學習率衰減方法 129
3.10 正則化 133
3.10.1 為什么要正則化 133
3.10.2 常見正則化方法 133
3.10.3 圖解L1和L2正則化 134
3.10.4 Dropout具體工作流程 135
3.10.5 為什么Dropout可以解決過擬合問題 137
3.10.6 Dropout的缺點
深度學習500問:AI工程師面試寶典 作者簡介
談繼勇 主編 南方科技大學和哈爾濱工業大學聯合培養博士(在讀),現任瀚維智能醫療技術總監,深圳工信局專家庫專家,兼任南方科技大學、四川大學研究生企業導師,南方科技大學和瀚維智能醫療聯合實驗室副主任,北京探工所特聘技術專家,曾先后在中科院信工所、香港中文大學(深圳)、FOXCONN機器人與人工智能實驗室、順豐科技等單位任職。主要專注于智能感知與控制、實時智能與計算機視覺方向的研究,主持/主研國家自然科學基金、省重點研發計劃、深圳戰略性新興產業計劃等項目20余項,發表SCI/EI論文20余篇,申請發明專利40余項,獲全國發明金獎。 郭子釗 副主編 四川大學計算機科學專業博士,碩士畢業于四川大學自動化系,主要從事AI芯片、深度學習、行為檢測識別、人臉檢測識別等相關研究工作。 李劍 副主編 同濟大學計算機科學專業博士,浙江農林大學副教授、碩士生導師,主要從事推薦系統、排序學習、凸優化等機器學習領域的科研和教學工作,發表SCI論文10余篇,曾獲浙江省科技進步二等獎等多項省部級獎項。 佃松宜 副主編 日本東北大學博士,四川大學電氣工程學院教授、自動化系系主任,四川省信息與自動化技術重點實驗室主任。主要專注于先進控制理論與人工智能算法研究、嵌入式計算與實時智能系統的研究與開發、機器人與智能裝備的智能感知與控制技術的研究、工業測控與智能物聯的研究。近5年來主持包括國家重點研發計劃、基金、國網總部項目等各類科研項目近30項,累計總經費近2200萬元;發表論文100多篇,其中SCI/EI檢索近40篇,ESI高引論文1篇。參與編撰專著3部(其中英文專著1部),參編國家九五規劃教材1部。 王晉東 特邀編委 中科院計算所博士,微軟亞洲研究院機器學習研究員,主要從事遷移學習和機器學習方向的研究工作,在IJCAI、CVPR、ICDM、UbiComp、ACMMM、PERCOM、IJCNN、PRICAI、IEEE TNNLS、NEUNET、PRL、PMCJ、IMWUT、IJMLC、ICME、ACM TIST等國際權威期刊和會議上發表論文20余篇,多次獲得“最佳論文”獎。作品有《遷移學習簡明手冊》等。 王超鋒 上海大學碩士,百度計算機視覺算法工程師,主研圖像處理,深度學習等方向。曾多次在國內外各類知名計算機視覺挑戰賽中獲得優異成績。 郭曉鋒 中國科學院碩士,愛奇藝算法工程師,主要從事圖像處理、深度學習等方向的研究,曾獲“2017華為軟件精英挑戰賽”復賽第6名。 黃偉 華南理工大學碩士,順豐科技機器人算法工程師,主要從事計算機視覺和自然語言處理方向的研究。曾在相關領域國際期刊、會議上發表論文,并在相關競賽中獲得優異成績。 陳方杰(Amusi) 上海大學碩士,CVer(計算機視覺知識分享和學習交流平臺)創始人。 李元偉 國防科技大學碩士,深圳瀚維智能醫療科技公司高級算法工程師,南方科技大學和瀚維智能醫療聯合實驗室委員,主要從事機器視覺、圖像處理及深度學習方向的研究工作,參編普通高等教育十三五規劃教材《圖像通信基礎》,在IEEE TCSVT、COGN COMPUT等發表學術論文多篇,曾獲湖南省/全軍優秀碩士論文。 陳琳 北京航空航天大學博士(在讀),研究方向為無人機智能控制與決策、仿生智能計算。
- >
名家帶你讀魯迅:故事新編
- >
羅曼·羅蘭讀書隨筆-精裝
- >
月亮虎
- >
推拿
- >
小考拉的故事-套裝共3冊
- >
朝聞道
- >
唐代進士錄
- >
龍榆生:詞曲概論/大家小書