掃一掃
關注中圖網
官方微博
本類五星書更多>
-
>
闖進數學世界――探秘歷史名題
-
>
中醫基礎理論
-
>
當代中國政府與政治(新編21世紀公共管理系列教材)
-
>
高校軍事課教程
-
>
思想道德與法治(2021年版)
-
>
毛澤東思想和中國特色社會主義理論體系概論(2021年版)
-
>
中醫內科學·全國中醫藥行業高等教育“十四五”規劃教材
智能科學技術著作叢書多智能體機器人系統信息融合與協調 版權信息
- ISBN:9787030447623
- 條形碼:9787030447623 ; 978-7-03-044762-3
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
智能科學技術著作叢書多智能體機器人系統信息融合與協調 內容簡介
本書提出了一種基于Markov對策的多Agent協調框架并給出了相應的算法。通過對多Agent環境的分析,在對策論框架下進行多Agent協調,重點研究了MAS中敵對平衡與協作平衡的多Agent學習算法。基于多Agent中競爭和合作的關系,設計了一種分層結構處理多Agent協調:利用零和Markov進行Agent群體之間的競爭與對抗,利用團隊Markov對策完成Agent群體內部的協調與合作。機器人足球賽結果表明了本方法的可行性及優越性。
智能科學技術著作叢書多智能體機器人系統信息融合與協調 目錄
目錄
智能科學技術著作叢書》序
前言
第1章 緒論 1
1.1 引言 1
1.2 多機器人系統中的信息融合 2
1.2.1 機器人傳感器系統 2
1.2.2 機器人多傳感器信息融合 2
1.3 多機器人協調與合作研究現狀 4
1.4 多Agent信息融合與協調的研究現狀 6
1.4.1 多Agent信息融合 7
1.4.2 多Agent協調與合作 7
1.5 機器人足球及其研究進展 9
1.5.1 機器人足球的發展概況 9
1.5.2 FIRA機器人足球比賽系統 10
1.5.3 機器人足球的關鍵技術和研究熱點 11
1.6 本書的結構和內容安排 13
參考文獻 14
第2章 多Agent的信息融合模型與方法 16
2.1 引言 16
2.2 Agent與MAS的概念及特性 17
2.2.1 Agent的由來及定義 17
2.2.2 Agent的特性 18
2.2.3 MAS的概念與特性 21
2.2.4 MAS與復雜系統 21
2.2.5 MAS與智能系統 23
2.3 信息融合技術概述 25
2.3.1 信息融合的概念與定義 26
2.3.2 信息融合的模型 27
2.3.3 信息融合應用與發展現狀 31
2.4 多Agent信息融合模型 33
2.4.1 Agent體系結構 33
2.4.2 MAS體系結構 35
2.4.3 基于多Agent的信息融合模型 36
2.5 小結 37
參考文獻 38
第3章 多Agent協調的學習與對策 41
3.1 引言 41
3.2 多Agent協調的理論與方法 42
3.2.1 協調的基本概念 42
3.2.2 MAS協調及其理論 43
3.3 Agent的學習模型與方法 46
3.3.1 強化學習 47
3.3.2 Markov決策過程 49
3.3.3 Q學習算法 50
3.4 多Agent的協調模型 52
3.4.1 黑板模型 52
3.4.2 合同網 53
3.4.3 通用部分全局規劃 55
3.5 多Agent協調的對策與學習方法 55
3.5.1 Markov對策概述 56
3.5.2 沖突博弈 59
3.5.3 多Agent強化學習 60
3.6 小結 61
參考文獻 61
第4章 基于證據推理的多Agent分布式決策 63
4.1 引言 63
4.2 證據推理理論 64
4.2.1 概率的幾種解釋及其性質 64
4.2.2 證據理論的數學基礎 64
4.2.3 證據推理的基本概念 67
4.2.4 Dempster組合規則 68
4.2.5 證據決策規則 71
4.2.6 Dempster組合規則存在的問題 72
4.3 Agent信息模型 73
4.3.1 單支置信函數 73
4.3.2 基于證據推理的Agent信息模型 73
4.4 可傳遞置信模型 74
4.4.1 可傳遞置信模型的基本結構 74
4.4.2 辨識框架的粗分和細化 75
4.4.3 Pignistic概率轉換 75
4.5 基于多Agent的分布式決策融合框架及算法 76
4.5.1 系統框架 76
4.5.2 融合中心 77
4.5.3 決策中心 78
4.6 仿真算例 79
4.6.1 賽場狀態信息 79
4.6.2 對手的策略 81
4.7 多Agent分布式決策融合策略 83
4.7.1 異構融合 83
4.7.2 可靠性分配 84
4.7.3 融合處理 84
4.7.4 在機器人足球中的應用 84
4.8 小結 88
參考文獻 89
第5章 強化函數設計方法及其在學習系統的應用 91
5.1 引言 91
5.2 強化學習應用中的關鍵問題 92
5.2.1 泛化方法 92
5.2.2 探索與利用的權衡 94
5.2.3 強化函數與算法結構設計 95
5.3 強化學習的獎懲函數 95
5.4 基于平均報酬模型的強化學習算法 98
5.4.1 報酬模型 98
5.4.2 *優策略 99
5.4.3 基于平均報酬模型的強化學習主要算法 99
5.5 一種基于知識的強化函數設計方法 101
5.5.1 強化函數的基本設計思想 101
5.5.2 基于知識的強化函數 103
5.5.3 仿真實驗 103
5.6 小結 107
參考文獻 107
第6章 基于分布式強化學習的多Agent協調方法 109
6.1 引言 109
6.2 多Agent強化學習基本理論 110
6.2.1 基于局部合作的Q學習 111
6.2.2 基于區域合作的Q學習 111
6.2.3 算法的收斂性 113
6.3 多Agent強化學習方法的特性 114
6.3.1 多Agent強化學習理論及假設的不同 114
6.3.2 多Agent強化學習模型及框架的差異 115
6.3.3 多Agent強化學習內容的區別 115
6.3.4 多Agent強化學習算法設計的迥異 116
6.4 多Agent強化學習算法的分類與比較 116
6.4.1 絕對合作型多Agent強化學習算法 116
6.4.2 絕對競爭型多Agent強化學習算法 117
6.4.3 混合型多Agent強化學習算法 117
6.4.4 平衡型多Agent強化學習算法 117
6.4.5 *佳響應型多Agent強化學習算法 118
6.4.6 分析與比較 118
6.5 MAS中的分布式強化學習模型及結構 118
6.5.1 中央強化學習結構 119
6.5.2 獨立強化學習結構 119
6.5.3 群體強化學習結構 120
6.5.4 社會強化學習結構 120
6.6 基于分布式強化學習的多Agent協調模型及算法 1206.6.1 協調級 121
6.6.2 行為級 121
6.6.3 強化信息的分配 121
6.6.4 仿真實驗 122
6.7 小結 129
參考文獻 130
第7章 基于Markov對策的多Agent協調 132
7.1 引言 132
7.2 多Agent交互的協調與博弈分析 133
7.2.1 多Agent協調與博弈的性質 133
7.2.2 多Agent協調失敗的處理 134
7.3 多Agent沖突博弈強化學習模型 136
7.3.1 多Agent沖突博弈 136
7.3.2 *優策略 137
7.3.3 基于后悔值的Q學習模型 138
7.4 NashQ學習 140
7.5 零和Markov對策和團隊Markov對策 141
7.5.1 零和Markov對策 141
7.5.2 團隊Markov對策 143
7.6 基于Markov對策的多Agent協調策略 144
7.6.1 對策框架 144
7.6.2 Team級對策 144
7.6.3 Member級對策 145
7.6.4 仿真實驗 145
7.7 小結 155
參考文獻 155
第8章 Agent技術在機器人智能控制系統的應用 157
8.1 引言 157
8.2 智能機器人系統應用研究 158
8.2.1 概況 158
8.2.2 傳統研究方法的缺陷 160
8.2.3 智能機器人系統的共性 160
8.3 開放式機器人智能控制系統應用研究 161
8.3.1 開放式控制系統的典型特征 161
8.3.2 基于PC的開放式控制系統的實現 162
8.4 多機器人系統應用研究 162
8.4.1 多機器人隊形控制 163
8.4.2 機器人救援 165
8.4.3 多機器人追捕問題 166
8.5 總結與展望 168
8.5.1 總結 168
8.5.2 未來工作展望 169
參考文獻 170
智能科學技術著作叢書》序
前言
第1章 緒論 1
1.1 引言 1
1.2 多機器人系統中的信息融合 2
1.2.1 機器人傳感器系統 2
1.2.2 機器人多傳感器信息融合 2
1.3 多機器人協調與合作研究現狀 4
1.4 多Agent信息融合與協調的研究現狀 6
1.4.1 多Agent信息融合 7
1.4.2 多Agent協調與合作 7
1.5 機器人足球及其研究進展 9
1.5.1 機器人足球的發展概況 9
1.5.2 FIRA機器人足球比賽系統 10
1.5.3 機器人足球的關鍵技術和研究熱點 11
1.6 本書的結構和內容安排 13
參考文獻 14
第2章 多Agent的信息融合模型與方法 16
2.1 引言 16
2.2 Agent與MAS的概念及特性 17
2.2.1 Agent的由來及定義 17
2.2.2 Agent的特性 18
2.2.3 MAS的概念與特性 21
2.2.4 MAS與復雜系統 21
2.2.5 MAS與智能系統 23
2.3 信息融合技術概述 25
2.3.1 信息融合的概念與定義 26
2.3.2 信息融合的模型 27
2.3.3 信息融合應用與發展現狀 31
2.4 多Agent信息融合模型 33
2.4.1 Agent體系結構 33
2.4.2 MAS體系結構 35
2.4.3 基于多Agent的信息融合模型 36
2.5 小結 37
參考文獻 38
第3章 多Agent協調的學習與對策 41
3.1 引言 41
3.2 多Agent協調的理論與方法 42
3.2.1 協調的基本概念 42
3.2.2 MAS協調及其理論 43
3.3 Agent的學習模型與方法 46
3.3.1 強化學習 47
3.3.2 Markov決策過程 49
3.3.3 Q學習算法 50
3.4 多Agent的協調模型 52
3.4.1 黑板模型 52
3.4.2 合同網 53
3.4.3 通用部分全局規劃 55
3.5 多Agent協調的對策與學習方法 55
3.5.1 Markov對策概述 56
3.5.2 沖突博弈 59
3.5.3 多Agent強化學習 60
3.6 小結 61
參考文獻 61
第4章 基于證據推理的多Agent分布式決策 63
4.1 引言 63
4.2 證據推理理論 64
4.2.1 概率的幾種解釋及其性質 64
4.2.2 證據理論的數學基礎 64
4.2.3 證據推理的基本概念 67
4.2.4 Dempster組合規則 68
4.2.5 證據決策規則 71
4.2.6 Dempster組合規則存在的問題 72
4.3 Agent信息模型 73
4.3.1 單支置信函數 73
4.3.2 基于證據推理的Agent信息模型 73
4.4 可傳遞置信模型 74
4.4.1 可傳遞置信模型的基本結構 74
4.4.2 辨識框架的粗分和細化 75
4.4.3 Pignistic概率轉換 75
4.5 基于多Agent的分布式決策融合框架及算法 76
4.5.1 系統框架 76
4.5.2 融合中心 77
4.5.3 決策中心 78
4.6 仿真算例 79
4.6.1 賽場狀態信息 79
4.6.2 對手的策略 81
4.7 多Agent分布式決策融合策略 83
4.7.1 異構融合 83
4.7.2 可靠性分配 84
4.7.3 融合處理 84
4.7.4 在機器人足球中的應用 84
4.8 小結 88
參考文獻 89
第5章 強化函數設計方法及其在學習系統的應用 91
5.1 引言 91
5.2 強化學習應用中的關鍵問題 92
5.2.1 泛化方法 92
5.2.2 探索與利用的權衡 94
5.2.3 強化函數與算法結構設計 95
5.3 強化學習的獎懲函數 95
5.4 基于平均報酬模型的強化學習算法 98
5.4.1 報酬模型 98
5.4.2 *優策略 99
5.4.3 基于平均報酬模型的強化學習主要算法 99
5.5 一種基于知識的強化函數設計方法 101
5.5.1 強化函數的基本設計思想 101
5.5.2 基于知識的強化函數 103
5.5.3 仿真實驗 103
5.6 小結 107
參考文獻 107
第6章 基于分布式強化學習的多Agent協調方法 109
6.1 引言 109
6.2 多Agent強化學習基本理論 110
6.2.1 基于局部合作的Q學習 111
6.2.2 基于區域合作的Q學習 111
6.2.3 算法的收斂性 113
6.3 多Agent強化學習方法的特性 114
6.3.1 多Agent強化學習理論及假設的不同 114
6.3.2 多Agent強化學習模型及框架的差異 115
6.3.3 多Agent強化學習內容的區別 115
6.3.4 多Agent強化學習算法設計的迥異 116
6.4 多Agent強化學習算法的分類與比較 116
6.4.1 絕對合作型多Agent強化學習算法 116
6.4.2 絕對競爭型多Agent強化學習算法 117
6.4.3 混合型多Agent強化學習算法 117
6.4.4 平衡型多Agent強化學習算法 117
6.4.5 *佳響應型多Agent強化學習算法 118
6.4.6 分析與比較 118
6.5 MAS中的分布式強化學習模型及結構 118
6.5.1 中央強化學習結構 119
6.5.2 獨立強化學習結構 119
6.5.3 群體強化學習結構 120
6.5.4 社會強化學習結構 120
6.6 基于分布式強化學習的多Agent協調模型及算法 1206.6.1 協調級 121
6.6.2 行為級 121
6.6.3 強化信息的分配 121
6.6.4 仿真實驗 122
6.7 小結 129
參考文獻 130
第7章 基于Markov對策的多Agent協調 132
7.1 引言 132
7.2 多Agent交互的協調與博弈分析 133
7.2.1 多Agent協調與博弈的性質 133
7.2.2 多Agent協調失敗的處理 134
7.3 多Agent沖突博弈強化學習模型 136
7.3.1 多Agent沖突博弈 136
7.3.2 *優策略 137
7.3.3 基于后悔值的Q學習模型 138
7.4 NashQ學習 140
7.5 零和Markov對策和團隊Markov對策 141
7.5.1 零和Markov對策 141
7.5.2 團隊Markov對策 143
7.6 基于Markov對策的多Agent協調策略 144
7.6.1 對策框架 144
7.6.2 Team級對策 144
7.6.3 Member級對策 145
7.6.4 仿真實驗 145
7.7 小結 155
參考文獻 155
第8章 Agent技術在機器人智能控制系統的應用 157
8.1 引言 157
8.2 智能機器人系統應用研究 158
8.2.1 概況 158
8.2.2 傳統研究方法的缺陷 160
8.2.3 智能機器人系統的共性 160
8.3 開放式機器人智能控制系統應用研究 161
8.3.1 開放式控制系統的典型特征 161
8.3.2 基于PC的開放式控制系統的實現 162
8.4 多機器人系統應用研究 162
8.4.1 多機器人隊形控制 163
8.4.2 機器人救援 165
8.4.3 多機器人追捕問題 166
8.5 總結與展望 168
8.5.1 總結 168
8.5.2 未來工作展望 169
參考文獻 170
展開全部
書友推薦
- >
莉莉和章魚
- >
我與地壇
- >
李白與唐代文化
- >
龍榆生:詞曲概論/大家小書
- >
隨園食單
- >
回憶愛瑪儂
- >
史學評論
- >
大紅狗在馬戲團-大紅狗克里弗-助人
本類暢銷