包郵 TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn)
-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應(yīng)用
-
>
決戰(zhàn)行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調(diào)優(yōu)實踐之路
-
>
第一行代碼Android
-
>
JAVA持續(xù)交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學(xué)習(xí)
TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn) 版權(quán)信息
- ISBN:9787302662235
- 條形碼:9787302662235 ; 978-7-302-66223-5
- 裝幀:平裝-膠訂
- 冊數(shù):暫無
- 重量:暫無
- 所屬分類:>
TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn) 本書特色
(1)介紹機器學(xué)習(xí)、深度學(xué)習(xí)等基礎(chǔ)知識,闡述與TensorFlow互補的深度學(xué)習(xí)模型技術(shù),探討TensorFlow流行的原因;
(2)使用Flask輕量級框架在Web上提供已訓(xùn)練的深度學(xué)習(xí)模型,給出建立淺神經(jīng)網(wǎng)絡(luò)的實用案例;
(3)介紹數(shù)據(jù)增強和批處理規(guī)范化方法,給出使用MNIST數(shù)據(jù)集訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)的實用案例;
(4)介紹序列數(shù)據(jù)與遞歸神經(jīng)網(wǎng)絡(luò),基于IMDB影評系統(tǒng)給出遞歸神經(jīng)網(wǎng)絡(luò)的實用案例;
(5)研究自然語言處理與推薦系統(tǒng),給出深度自然語言處理及深度協(xié)同過濾的實用案例;
(6)詳細介紹自動編碼器的理論應(yīng)用以及使用tf-agent模型的強化學(xué)習(xí),給出基于Fashion MNIST數(shù)據(jù)集的圖像降噪實用案例;
(7)詳細介紹生成對抗網(wǎng)絡(luò),基于MNIST數(shù)據(jù)集實現(xiàn)生成對抗網(wǎng)絡(luò)生成文本、圖像或聲音等應(yīng)用。
TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn) 內(nèi)容簡介
本書首先介紹深度學(xué)習(xí),并與其他機器學(xué)習(xí)模型進行比較,并闡述與TensorFlow互補的用于創(chuàng)建深度學(xué)習(xí)模型的技術(shù),如Panda、Scikit-Learn和Numpy。隨后介紹有監(jiān)督的深度學(xué)習(xí)模型,并使用單層的多個感知器構(gòu)建淺層神經(jīng)網(wǎng)絡(luò),使用Tensorflow 2.0和Keras API創(chuàng)建真實的應(yīng)用程序。隨后是數(shù)據(jù)增強和批處理規(guī)范化方法,并使用MNIST數(shù)據(jù)集訓(xùn)練CNN。*后是使用自動編碼器的理論應(yīng)用和無監(jiān)督學(xué)習(xí),以及使用tf-agent模型的強化學(xué)習(xí)。本書主要面向深度學(xué)習(xí)和機器學(xué)習(xí)API領(lǐng)域的數(shù)據(jù)科學(xué)家和程序員。
TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn) 目錄
1.4硬件選項和要求 第2章機器學(xué)習(xí)簡介 2.1何為機器學(xué)習(xí) 2.2機器學(xué)習(xí)的范圍及相關(guān)鄰域 2.2.1人工智能 2.2.2深度學(xué)習(xí) 2.2.3數(shù)據(jù)科學(xué) 2.2.4大數(shù)據(jù) 2.2.5分類圖 2.3機器學(xué)習(xí)方式和模型 2.3.1監(jiān)督學(xué)習(xí) 2.3.2非監(jiān)督學(xué)習(xí) 2.3.3半監(jiān)督學(xué)習(xí) 2.3.4強化學(xué)習(xí) 2.4機器學(xué)習(xí)的基本步驟 2.4.1數(shù)據(jù)收集 2.4.2數(shù)據(jù)準備 2.4.3模型選擇 2.4.4訓(xùn)練 2.4.5評價 2.4.6調(diào)優(yōu)超參數(shù) 2.4.7預(yù)測 2.5小結(jié) 第3章深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)概述 3.1神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)研究的時間軸 3.2人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 3.2.1McCullochPitts神經(jīng)元 3.2.2現(xiàn)代深度神經(jīng)網(wǎng)絡(luò) 3.3深度學(xué)習(xí)的優(yōu)化算法 3.3.1*優(yōu)化面臨的挑戰(zhàn) 3.3.2過度擬合與正則化 3.4小結(jié) 第4章TensorFlow 2.x的附加程序庫 4.1TensorFlow互補程序庫的安裝 4.1.1使用pip安裝 4.1.2程序庫的安裝 4.2常見程序庫 4.2.1NumPy——數(shù)組處理 4.2.2SciPy——科學(xué)計算 4.2.3Pandas——數(shù)組處理與數(shù)據(jù)分析 4.2.4Matplotlib和Seaborn——數(shù)據(jù)可視化 4.2.5Scikitlearn——機器學(xué)習(xí) 4.2.6Flask——部署 4.3小結(jié) 第5章TensorFlow 2.0與深度學(xué)習(xí)流程 5.1TensorFlow基礎(chǔ) 5.1.1直接執(zhí)行 5.1.2張量 5.1.3TensorFlow變量 5.2TensorFlow深度學(xué)習(xí)流程 5.2.1數(shù)據(jù)加載與準備 5.2.2構(gòu)建模型 5.2.3編譯、訓(xùn)練、評估模型并進行預(yù)測 5.2.4保存并加載模型 5.3小結(jié) 第6章前饋神經(jīng)網(wǎng)絡(luò) 6.1深度和淺層前饋神經(jīng)網(wǎng)絡(luò) 6.1.1淺層前饋神經(jīng)網(wǎng)絡(luò) 6.1.2深度前饋神經(jīng)網(wǎng)絡(luò) 6.2前饋神經(jīng)網(wǎng)絡(luò)架構(gòu) 6.3案例分析: 燃油經(jīng)濟學(xué)與Auto MPG 6.3.1初始安裝和導(dǎo)入 6.3.2下載 Auto MPG數(shù)據(jù) 6.3.3數(shù)據(jù)準備 6.3.4創(chuàng)建DataFrame 6.3.5丟棄空值 6.3.6處理分類變量 6.3.7將Auto MPG分為訓(xùn)練集和測試集 6.3.8模型構(gòu)建與訓(xùn)練 6.3.9結(jié)果評價 6.3.10使用新的觀測數(shù)據(jù)進行預(yù)測 6.4小結(jié) 第7章卷積神經(jīng)網(wǎng)絡(luò) 7.1為什么選擇使用卷積神經(jīng)網(wǎng)絡(luò) 7.2CNN的架構(gòu) 7.2.1CNN中的網(wǎng)絡(luò)層 7.2.2完整的CNN模型 7.3案例研究: MNIST的圖像識別 7.3.1下載MNIST數(shù)據(jù) 7.3.2圖像的重塑與標準化 7.3.3構(gòu)建卷積神經(jīng)網(wǎng)絡(luò) 7.3.4模型的編譯與調(diào)試 7.3.5評價模型 7.3.6保存訓(xùn)練完成的模型 7.4小結(jié) 第8章循環(huán)神經(jīng)網(wǎng)絡(luò) 8.1序列數(shù)據(jù)與時序數(shù)據(jù) 8.2RNN與序列數(shù)據(jù) 8.3RNN基礎(chǔ) 8.3.1RNN的歷史 8.3.2RNN的應(yīng)用 8.3.3RNN的運作機制 8.3.4RNN的類型 8.4案例研究: IMDB影評的情緒分析 8.4.1為Colab準備GPU加速訓(xùn)練 8.4.2基于TensorFlow導(dǎo)入的數(shù)據(jù)集加載 8.4.3構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò) 8.5小結(jié) 第9章自然語言處理 9.1NLP的歷史 9.2NLP的實際應(yīng)用 9.3主要評估、技術(shù)、方法和任務(wù) 9.3.1形態(tài)句法學(xué) 9.3.2語義學(xué) 9.3.3語篇 9.3.4語音 9.3.5對話 9.3.6認知 9.4自然語言工具包 9.5案例研究: 深度NLP的文本生成 9.5.1案例實現(xiàn)目標 9.5.2莎士比亞語料庫 9.5.3初始導(dǎo)入 9.5.4加載語料庫 9.5.5文本向量化 9.5.6創(chuàng)建數(shù)據(jù)集 9.5.7模型構(gòu)建 9.5.8編譯并訓(xùn)練模型 9.5.9使用訓(xùn)練好的模型生成文本 9.6小結(jié) 第10章推薦系統(tǒng) 10.1構(gòu)建推薦系統(tǒng)的流行方法 10.1.1協(xié)同過濾方法 10.1.2基于內(nèi)容的過濾 10.1.3構(gòu)建推薦系統(tǒng)的其他方法 10.2案例開發(fā): 深度協(xié)同過濾與MovieLens數(shù)據(jù)集 10.2.1初始導(dǎo)入 10.2.2加載數(shù)據(jù) 10.2.3數(shù)據(jù)處理 10.2.4拆分數(shù)據(jù)集 10.2.5構(gòu)建模型 10.2.6編譯并訓(xùn)練模型 10.2.7進行推薦 10.3小結(jié) 第11章自動編碼器 11.1自動編碼器的優(yōu)缺點 11.2自動編碼器的架構(gòu) 11.2.1自動編碼器的各個層 11.2.2深度的優(yōu)勢 11.3自動編碼器的變體 11.3.1欠完備自動編碼器 11.3.2正則化自動編碼器 11.3.3變分自動編碼器 11.4自動編碼器的應(yīng)用 11.5案例研發(fā): Fashion MNIST圖像降噪 11.5.1初始導(dǎo)入 11.5.2加載并處理數(shù)據(jù) 11.5.3向圖像中添加噪聲 11.5.4構(gòu)建模型 11.5.5噪聲圖像的降噪 11.6小結(jié) 第12章生成對抗網(wǎng)絡(luò) 12.1GAN方法 12.2架構(gòu) 12.2.1生成器網(wǎng)絡(luò) 12.2.2判別器網(wǎng)絡(luò) 12.2.3潛在空間層 12.2.4面臨的問題: 模式崩潰 12.2.5有關(guān)架構(gòu)的*后注解 12.3GAN的應(yīng)用 12.3.1藝術(shù)與時尚 12.3.2制造與研發(fā) 12.3.3電子游戲 12.3.4惡意應(yīng)用與深度偽造 12.3.5其他應(yīng)用 12.4案例研發(fā): MNIST數(shù)據(jù)集的數(shù)字生成 12.4.1初始導(dǎo)入 12.4.2加載并處理MNIST數(shù)據(jù)集 12.4.3構(gòu)建GAN模型 12.4.4配置GAN模型 12.4.5訓(xùn)練GAN模型 12.4.6圖像生成函數(shù) 12.5小結(jié) 參考文獻
TENSORFLOW神經(jīng)網(wǎng)絡(luò)設(shè)計——基于PYTHON API的深度學(xué)習(xí)實戰(zhàn) 作者簡介
汪榮貴,合肥工業(yè)大學(xué)計算機與信息學(xué)院教授,中國人工智能學(xué)會離散智能計算專委會委員,安徽省人工智能學(xué)會理事,機械工業(yè)出版社計算機類教材出版咨詢專家;主要研究方向為機器學(xué)習(xí)與視頻圖像處理;承擔完成國家自然基金企業(yè)聯(lián)合基金、科技部重點研發(fā)計劃、電子產(chǎn)業(yè)基金、安徽省科技攻關(guān)重點項目等多個課題,以及中電集團四創(chuàng)電子股份公司等多個企業(yè)委托項目;發(fā)表80余篇學(xué)術(shù)論文,近期完成的研究成果獲安徽省科技進步二等獎、中電集團科技進步一等獎、合肥市科技進步一等獎,編著出版的《離散數(shù)學(xué)及其應(yīng)用》、《算法設(shè)計與應(yīng)用》、《機器學(xué)習(xí)及其應(yīng)用》、《機器學(xué)習(xí)簡明教程》深受廣大讀者好評。
- >
巴金-再思錄
- >
史學(xué)評論
- >
上帝之肋:男人的真實旅程
- >
新文學(xué)天穹兩巨星--魯迅與胡適/紅燭學(xué)術(shù)叢書(紅燭學(xué)術(shù)叢書)
- >
苦雨齋序跋文-周作人自編集
- >
中國歷史的瞬間
- >
月亮與六便士
- >
唐代進士錄