-
>
東洋鏡:京華舊影
-
>
東洋鏡:嵩山少林寺舊影
-
>
東洋鏡:晚清雜觀
-
>
關中木雕
-
>
國博日歷2024年禮盒版
-
>
中國書法一本通
-
>
中國美術8000年
深度學習與音樂生成 版權信息
- ISBN:9787302627234
- 條形碼:9787302627234 ; 978-7-302-62723-4
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>>
深度學習與音樂生成 本書特色
本書是對使用深度學習(深度人工神經網絡)生成音樂內容的不同方法的綜述。 音樂生成領域是一個很寬泛的領域,它涉及了很多小的分支,類似智能編曲、智能和弦伴奏、智能AI歌手、樂曲智能調優、樂曲Remix等。該書籍涉及了許多細化方向,為學者提供了很多新思路,能夠開拓視野,對于之后的研究有著莫大的引導作用。
深度學習與音樂生成 內容簡介
一、大致內容:本書主要講述了深度學習在音樂生成領域的研究意義、具體方法、方向目標、表現力、挑戰策略、框架融合等,對于表現力與框架融合方面作了更詳細的描述;表現力部分講了深度學習與音樂生成相結合的方式策略、該領域研究結果的評判標準以及交叉知識的具體體現,是本書籍新穎立意的重要部分。二:特色:將音樂生成和深度學習相融合,是一個新穎研究方向,而本書沒有拘泥于使用哪種框架進行實現,而是對比了多種實現方式,提供了多方面的思路,對于后續學者的探究有很強的引導作用。三:讀者對象:本書對于對音樂感興趣的人以及對深度學習前沿方向的學者有好的學習價值,能夠開拓他們的視野,對廣大的音樂和計算機愛好者均有較大的參考價值。
深度學習與音樂生成 目錄
第1章引言1
1.1動機2
1.1.1基于計算機的音樂系統2
1.1.2自主創作與輔助創作3
1.1.3符號化人工智能與次符號化人工智能4
1.1.4深度學習4
1.1.5現狀和未來5
1.2這本書是講什么的5
1.2.1其他書籍和資料來源5
1.2.2其他模型6
1.2.3深度學習與馬爾可夫模型6
1.2.4學習需求和路線圖7
1.2.5本書涉及的范圍8第2章方法9
2.1五個維度9
2.1.1目標9
2.1.2表示9
2.1.3架構9
2.1.4挑戰10
2.1.5策略10
2.2討論10第3章目標11
3.1屬性11
3.1.1音樂類型11
3.1.2目標與應用12
3.1.3生成模式12
3.1.4音樂風格13第4章表示14
4.1數據的階段和類型14
4.2音頻數據與符號化數據15
4.3基于音頻的表示16
4.3.1波形表示16
4.3.2轉換表示17
4.3.3聲音頻譜圖17
4.3.4聲色譜圖17
4.4符號化表示18
4.5主要概念19
4.5.1音符19
4.5.2休止符19
4.5.3音程20
4.5.4和弦20
4.5.5節奏21
4.6多聲部/多軌道22
4.7音樂格式22
4.7.1MIDI格式22
4.7.2鋼琴打孔紙卷格式23
4.7.3文本格式24
4.7.4標記語言26
4.7.5領譜26
4.8時間范圍和粒度28
4.8.1時間范圍28
4.8.2時間粒度29
4.9元數據29
4.9.1音符保持/結束30
4.9.2音名表示(與異名同音)31
4.9.3特征提取31
4.10音樂表現力32
4.10.1時間節奏32
4.10.2音樂力度32
4.10.3音頻33
4.11編碼33
4.11.1編碼策略33
4.11.2OneHot、ManyHot及MultiOneHot編碼34
4.11.3編碼小結34
4.11.4Binning35
4.11.5優缺點35
4.11.6和弦36
4.11.7特殊的音符保持與休止符36
4.11.8鼓和打擊樂器37
4.12數據集37
4.12.1移調和對齊37
4.12.2音樂數據集和語料庫38第5章架構39
5.1神經網絡簡介40
5.1.1線性回歸40
5.1.2符號41
5.1.3模型訓練41
5.1.4梯度下降訓練算法42
5.1.5從模型到體系架構43
5.1.6從模型到線性代數表示43
5.1.7從簡單模型到多元模型44
5.1.8激活函數45
5.2基本組件47
5.2.1前饋計算47
5.2.2同時計算多個輸入數據48
5.3機器學習48
5.3.1定義48
5.3.2機器學習分類49
5.3.3組成50
5.3.4優化50
5.4體系架構50
5.5多層神經網絡50
5.5.1抽象表示法51
5.5.2深度52
5.5.3輸出激活函數54
5.5.4代價函數54
5.5.5解釋55
5.5.6熵與交叉熵58
5.5.7前饋傳播60
5.5.8訓練61
5.5.9過擬合61
5.5.10正則化62
5.5.11超參數62
5.5.12平臺和庫63
5.6自動編碼器63
5.6.1稀疏自動編碼器64
5.6.2變分自動編碼器65
5.6.3堆棧式自動編碼器69
5.7受限玻爾茲曼機69
5.7.1訓練70
5.7.2采樣70
5.7.3變量的類型71
5.8遞歸神經網絡71
5.8.1可視表示73
5.8.2訓練73
5.8.3長短時記憶(LSTM)74
5.8.4注意力機制75
5.9卷積架構模式76
5.9.1原理76
5.9.2卷積的階段77
5.9.3池化77
5.9.4多層卷積結構77
5.9.5基于時變的卷積78
5.10基于調控的架構模式78
5.11生成對抗網絡(GAN)體系架構模式80
5.12強化學習82
5.13復合架構83
5.13.1復合的類型83
5.13.2雙向RNN84
5.13.3RNN編碼器解碼器85
5.13.4變分RNN編碼器解碼器86
5.13.5面向復調的循環網絡87
5.13.6進一步的復合架構87
5.13.7組合的局限性87第6章挑戰及策略88
6.1架構和表示維度的符號88
6.2入門示例89
6.2.1單步前饋策略89
6.2.2示例: MiniBach——《圣詠曲》對位伴奏符號音樂生成系統89
6.2.3**個分析91
6.3局限性及挑戰92
6.4基于Ex Nihilo的生成92
6.4.1解碼器前饋93
6.4.2采樣95
6.5音樂長度的可變性97
6.6音樂內容的可變性101
6.7音樂表現力106
6.8RNN與迭代前饋的再探討108
6.8.1#1示例: TimeWindowed——旋律符號音樂生成系統108
6.8.2#2示例: Sequential——旋律符號音樂生成系統109
6.8.3#3示例: BLSTM——和弦伴奏符號音樂生成系統111
6.8.4總結114
6.9旋律和弦交互114
6.9.1#1示例: RNNRBM——面向復調的符號音樂生成系統114
6.9.2#2示例: Hexahedria——面向復調的符號音樂生成架構117
6.9.3#3示例: BiAxial LSTM——面向復調的符號音樂生成架構119
6.10控制121
6.10.1控制策略的維度121
6.10.2采樣122
6.10.3調控127
6.10.4輸入操縱139
6.10.5輸入操控和采樣146
6.10.6強化學習149
6.10.7Unit Selection152
6.11風格遷移155
6.11.1作曲風格轉移155
6.11.2音色風格遷移156
6.11.3演奏風格遷移157
6.11.4示例: FlowComposer——作曲支持環境158
6.12架構160
6.12.1示例: MusicVAE——面向多聲道層次符號音樂生成系統160
6.12.2其他時間架構層次164
6.13原創性165
6.13.1調控165
6.13.2創新對抗網絡165
6.14漸進性167
6.14.1音符實例化策略167
6.14.2示例: DeepBach——面向多聲部《圣詠曲》的符號音樂
生成系統168
6.15交互性171
6.15.1#1示例: deepAutoController——音頻音樂生成系統171
6.15.2#2示例: DeepBach——面向《圣詠曲》的符號音樂生成系統172
6.15.3接口定義172
6.16適應性173
6.17可解釋性173
6.17.1#1示例: BachBot——面向復調《圣詠曲》的符號音樂
生成系統174
6.17.2#2示例: deepAutoController——音頻音樂生成系統176
6.17.3自動分析176
6.18討論177第7章分析178
7.1引用和縮略語178
7.2系統分析183
7.3相關分析191第8章討論與結論197
8.1全局與時值步長197
8.2卷積與遞歸198
8.3風格遷移與遷移學習199
8.4協作199
8.5專業化200
8.6評價與創造力200
8.7結論202參考文獻203術語215
- >
莉莉和章魚
- >
山海經
- >
自卑與超越
- >
經典常談
- >
伊索寓言-世界文學名著典藏-全譯本
- >
朝聞道
- >
【精裝繪本】畫給孩子的中國神話
- >
回憶愛瑪儂