第0章 寫在前面:神經網絡的歷史 1第1章 神經網絡是個什么東西 131.1 買橙子和機器學習 131.1.1 規則列表 141.1.2 機器學習 151.2 怎么定義神經網絡 161.3 先來看看大腦如何學習 161.3.1 信息輸入 171.3.2 模式加工 171.3.3 動作輸出 181.4 生物意義上的神經元 191.4.1 神經元是如何工作的 191.4.2 組成神經網絡 221.5 大腦如何解決現實生活中的分類問題 24第2章 構造神經網絡 262.1 構造一個神經元 262.2 感知機 302.3 感知機的學習 322.4 用代碼實現一個感知機 342.4.1 neuroph:一個基于java的神經網絡框架 342.4.2 代碼實現感知機 372.4.3 感知機學習一個簡單邏輯運算 392.4.4 xor問題 422.5 構造一個神經網絡 442.5.1 線性不可分 452.5.2 解決xor問題(解決線性不可分) 492.5.3 xor問題的代碼實現 512.6 解決一些實際問題 542.6.1 識別動物 542.6.2 我是預測大師 59第3章 深度學習是個什么東西 663.1 機器學習 673.2 特征 753.2.1 特征粒度 753.2.2 提取淺層特征 763.2.3 結構性特征 783.3 淺層學習和深度學習 813.4 深度學習和神經網絡 833.5 如何訓練神經網絡 843.5.1 bp算法:神經網絡訓練 843.5.2 bp算法的問題 853.6 總結深度學習及訓練過程 86第4章 深度學習的常用方法 894.1 模擬大腦的學習和重構 904.1.1 灰度圖像 914.1.2 流行感冒 924.1.3 看看如何編解碼 934.1.4 如何訓練 954.1.5 有監督微調 974.2 快速感知:稀疏編碼(sparse coding) 984.3 棧式自編碼器 1004.4 解決概率分布問題:限制波爾茲曼機 1024.4.1 生成模型和概率模型 1024.4.2 能量模型 1074.4.3 rbm的基本概念 1094.4.4 再看流行感冒的例子 1114.5 dbn 1124.6 卷積神經網絡 1144.6.1 卷積神經網絡的結構 1164.6.2 關于參數減少與權值共享 1204.6.3 舉個典型的例子:圖片內容識別 1244.7 不會忘記你:循環神經網絡 1314.7.1 什么是rnn 1314.7.2 lstm網絡 1364.7.3 lstm變體 1414.7.4 結論 1434.8 你是我的眼:利用稀疏編碼器找圖像的基本單位 1434.9 你是我的眼(續) 1504.10 使用深度信念網搞定花分類 160第5章 深度學習的勝利:alphago 1695.1 ai如何玩棋類游戲 1695.2 圍棋的復雜性 1715.3 alphago的主要原理 1735.3.1 策略網絡 1745.3.2 mcts拯救了圍棋算法 1765.3.3 強化學習:“周伯通,左右互搏” 1795.3.4 估值網絡 1815.3.5 將所有組合到一起:樹搜索 1825.3.6 alphago有多好 1855.3.7 總結 1875.4 重要的技術進步 1895.5 一些可以改進的地方 1905.6 未來 192第6章 兩個重要的概念 1946.1 遷移學習 1946.2 概率圖模型 1976.2.1 貝葉斯的網絡結構 2016.2.2 概率圖分類 2046.2.3 如何應用pgm 208第7章 雜項 2107.1 如何為不同類型的問題選擇模型 2107.2 我們如何學習“深度學習” 2117.3 如何理解機器學習和深度學習的差異 2127.4 大規模學習(large scale learning)和并行計算 2147.5 如果喜歡應用領域,可以考慮以下幾種應用 2157.6 類腦:人工智能的終極目標 216參考文獻 218術語 220