-
>
貨幣大歷史:金融霸權與大國興衰六百年
-
>
(精)方力鈞作品圖錄
-
>
《藏書報》2021合訂本
-
>
(精)中國當代書畫名家作品集·范碩:書法卷+繪畫卷(全2卷)
-
>
(噴繪樓閣版)女主臨朝:武則天的權力之路
-
>
書里掉出來一只狼+狼的故事-全2冊
-
>
奇思妙想創意玩具書(精裝4冊)
情感計算與情感機器人系統 版權信息
- ISBN:9787030569233
- 條形碼:9787030569233 ; 978-7-03-056923-3
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:
情感計算與情感機器人系統 內容簡介
本書在介紹情感計算、情感建模以及人機情感交互概念的基礎上,分析了當前人機情感交互的研究前沿,總結了在多模態情感識別方法、人機交互氛圍場建模、情感意圖理解方法、情感機器人的多模態情感表達以及人機情感交互系統應用方面的**研究成果,使讀者對人機情感交互有更深的理解,對促進我國在情感計算與情感機器人領域的快速發展具有積極的作用。
情感計算與情感機器人系統 目錄
編者的話
前言
第1章 緒論 1
1.1 情感計算 1
1.1.1 情感計算概述 1
1.1.2 情感計算關鍵技術及現狀 2
1.1.3 情感計算的應用 6
1.2 情感建模 7
1.2.1 維度情感模型 7
1.2.2 離散情感模型 11
1.2.3 其他情感模型 12
1.3 情感機器人 15
1.3.1 情感機器人的發展 15
1.3.2 情感機器人的應用 18
1.4 本書內容 22
參考文獻 23
第2章 多模態情感特征提取 29
2.1 語音情感特征提取 29
2.1.1 語音信號預處理 29
2.1.2 聲學情感特征提取 34
2.2 面部表情情感特征提取 41
2.2.1 人臉檢測與定位 41
2.2.2 人臉表情特征提取 43
2.3 生理信號情感特征提取 47
2.3.1 生理信號簡介 48
2.3.2 腦電信號預處理 49
2.3.3 腦電信號特征提取 52
參考文獻 61
第3章 情感特征集降維方法 63
3.1 特征抽取 63
3.1.1 主成分分析法 64
3.1.2 線性判別分析法 65
3.1.3 多維尺度分析法 67
3.1.4 等距映射法 68
3.1.5 局部線性嵌入法 69
3.2 特征選擇 73
3.2.1 相關性分析特征選擇方法 73
3.2.2 隨機森林特征選擇方法 76
3.2.3 遺傳算法特征選擇方法 77
3.2.4 Relief特征選擇算法 80
參考文獻 81
第4章 多模態情感識別與表達 84
4.1 情感識別方法 84
4.1.1 反向傳輸神經網絡 84
4.1.2 支持向量機 86
4.1.3 超限學習機 89
4.1.4 大腦情感學習 91
4.1.5 深度神經網絡 94
4.2 多模態情感信息融合 96
4.2.1 特征級融合 96
4.2.2 決策級融合 98
4.3 多模態情感表達 102
4.3.1 情感語音合成 102
4.3.2 面部表情的合成與表達 106
4.3.3 肢體語言情感的合成與表達 110
參考文獻 115
第5章 人機交互氛圍場建模 118
5.1 模糊氛圍場建模 118
5.1.1 交流氛圍場三維空間模型 119
5.1.2 情感狀態的三維空間模型 121
5.1.3 模糊氛圍場模型 122
5.1.4 模糊氛圍場的圖形化表示 126
5.2 基于模糊層次分析的氛圍場模型 129
5.2.1 人機交互氛圍的模糊層次分析 129
5.2.2 權重動態調整 131
5.2.3 人機交互氛圍場權重計算實例 133
5.2.4 人機交互氛圍場實驗 133
5.3 模糊氛圍場的行為適應 136
5.3.1 基于模糊產生式規則的友好Q學習行為適應機制 136
5.3.2 基于合作-中立-競爭的友好Q學習行為適應機制 139
5.3.3 模糊氛圍場的行為適應實驗 142
參考文獻 152
第6章 情感意圖理解方法 155
6.1 情感意圖 155
6.1.1 情感意圖的定義 155
6.1.2 情感意圖的影響因素分析 156
6.2 情感意圖理解模型 158
6.2.1 基于模糊多層次分析的情感意圖理解模型 158
6.2.2 基于T-S模糊多層次分析的情感意圖理解模型 163
6.3 情感意圖行為適應機制 165
6.3.1 基于模糊友好Q學習的情感意圖行為適應機制 165
6.3.2 基于信息驅動的模糊友好Q學習情感意圖行為適應機制 165
6.4 情感意圖實驗 170
6.4.1 情感意圖的理解實驗 171
6.4.2 情感意圖的行為適應實驗 183
參考文獻 189
第7章 情感機器人系統的設計及應用 193
7.1 早期的人機情感交互系統 193
7.1.1 Mascot人機情感交互系統 193
7.1.2 WE-4R Ⅱ人機情感交互系統 197
7.2 多模態人機情感交互系統 199
7.2.1 系統設計目標 200
7.2.2 系統功能模塊 202
7.2.3 系統整體架構 203
7.2.4 情感交互場景規劃 205
7.2.5 系統功能設計實現 207
參考文獻 214
附錄 216
情感計算與情感機器人系統 節選
第1章 緒論 情感在人們的日常生活中起著重要的作用。人與人之間的交流過程中傳遞著大量的情感信息,這使得人們可以進行和諧自然的交流。隨著感性工學和人工心理學的發展,情感逐漸受到認知科學研究者的廣泛關注。目前,認知科學家把情感與知覺、學習、記憶、言語等經典認知過程相提并論,關于情感本身及情感與其他認知過程中相互作用的研究也成為當代認知科學的熱點。 情感計算是人機情感交互系統和情感機器人的關鍵技術。隨著人工智能技術的發展,人機交互已經逐漸步入人們的日常生活,但是傳統的人機交互方式是機械化的,難以滿足現在的需求。情感計算技術的引入使機器具有了與人類似的情感功能,在人機交互中能夠與人發生情感上的互動,從而使得人與機器間的交流更加自然。 1.1 情感計算 情感計算就是賦予計算機像人一樣的觀察、理解和表達各種情感特征的能力,*終使計算機能與人進行自然、親切和生動的交互[1]。情感計算及其在人機交互系統中的應用必將成為未來人工智能的一個重要研究方向[2]。 1.1.1 情感計算概述 情感計算的概念是在1997年由麻省理工學院(Massachusetts Institute of Tech-nology,MIT)媒體實驗室Picard教授提出的,她指出情感計算與情感相關,源于情感或能夠對情感施加影響的計算[3]。1999年,北京科技大學王志良教授提出了人工心理理論[4],對人的情感、意志、性格、創造等心理活動進行研究。人工心理理論以人工智能現有的理論和方法為基礎,是人工智能的繼承和發展,有著更廣泛的內容。中國科學院自動化研究所胡包剛研究員等也通過自己的研究,提出了情感計算的定義,認為情感計算的目的是通過賦予計算機識別、理解、表達和適應人的情感的能力來建立和諧人機環境,并使計算機具有更高的、全面的智能。 心理學和認知科學對情感計算的發展起了很大的促進作用。心理學研究表明,情感是人與環境之間某種關系的維持或改變,當外界環境的發展與人的需求及愿望符合時會引起人積極肯定的情感,反之則會引起人消極否定的情感。情感是人態度在生理上一種較復雜而又穩定的生理評價和體驗,在生理反應上的反映包括喜、怒、憂、思、悲、恐、驚七種基本情感。情感因素往往影響著人們的理性判斷和決策,因此人們常常以避免“感情用事”來告誡自己和他人。但情感因素對人們的影響也不都是負面的,根據心理學和醫學的相關研究成果,人們如果喪失了一定的情感能力,如理解和表達情感的能力,那么理性的決策和判斷是難以達到的。不少學者認為情感能力是人類智能的重要標志,領會、運用、表達情感的能力發揮著比傳統的智力更為重要的作用。 情感計算是一門綜合性很強的技術,是人工智能情感化的關鍵一步。情感計算的主要研究內容包括:分析情感的機制,主要是情感狀態判定及與生理和行為之間的關系;利用多種傳感器獲取人當前情感狀態下的行為特征與生理變化信息,如語音信號、面部表情、身體姿態等體態語以及脈搏、皮膚電、腦電等生理指標;通過對情感信號的分析與處理,構建情感模型將情感量化,使機器人具有感知、識別并理解人情感狀態的能力,從而使情感更加容易表達;根據情感分析與決策的結果,機器人能夠針對人的情感狀態進行情感表達,并做出行為反應[5]。 近年來,隨著情感計算技術的快速發展,人機情感交互和情感機器人已成為人機交互和情感計算領域的研究熱點,其內容涉及數學、心理學、計算機科學、人工智能和認知科學等眾多學科。人機情感交互就是要實現計算機識別和表達情感的功能,*終使人與計算機能夠進行自然、和諧的交互。當前,基于語音、面部表情、手勢、生理信號等方式的人機情感交互系統和情感機器人的開發取得了一定的成果,它在遠程教育、醫療保健、助老助殘、智能駕駛、網絡虛擬游戲和服務機器人等諸多領域有著廣闊的應用前景。 1.1.2 情感計算關鍵技術及現狀 情感計算中關鍵的兩個技術環節是如何讓機器能夠識別人的情感、如何根據人的情感狀態產生和表達機器的情感。雖然情感計算是一門新興學科,但前期心理學、生理學、行為學和腦科學等相關學科的研究成果已經為情感計算的研究奠定了堅實的基礎。目前,國內外關于情感計算的研究已經在情感識別和情感合成與表達方面,包括語音情感識別與合成表達、人臉表情識別與合成表達、生理信號情感識別、身體姿態情感識別與合成表達等,取得了初步成果。 1. 情感識別現狀 情感識別是通過對情感信號的特征提取,得到能*大限度地表征人類情感的情感特征數據,據此進行建模,找出情感的外在表象數據與內在情感狀態的映射關系,從而將人類當前的內在情感類型識別出來。在情感計算中,情感識別是*重要的研究內容之一。情感識別的研究主要包括語音情感識別、人臉表情識別和生理信號情感識別等。目前,我國關于情感識別的研究已經比較普遍,例如,清華大學、中國科學院、北京航空航天大學、北京科技大學、哈爾濱工業大學、東南大學、上海交通大學、中國地質大學(武漢)等多所高校和科研機構參與了情感識別相關課題的研究[6-12]。 1)語音情感識別 MIT媒體實驗室Picard教授帶領的情感計算研究團隊在1997年就開始了對于語音情感的研究。在語音情感識別方面,該團隊的成員Fernandez等開發了汽車駕駛語音情感識別系統,通過語音對司機的情感狀態進行分析,有效減少了車輛行駛過程中因不好情感狀態而引起的危險[13]。美國南加利福尼亞大學語音情感研究團隊以客服系統為應用背景,致力于語音情感的聲學分析與合成,并對積極情緒和消極情緒兩種情感狀態進行識別。該團隊將語音情感識別技術集成到語音對話系統中,使計算機能夠更加自然、和諧地與人進行交互[14]。 在國內,中國地質大學(武漢)自動化學院情感計算團隊對獨立人和非獨立人的語音情感識別進行了深入的研究,他們對說話人的聲學特征和韻律特征進行分析,提取了獨立說話人的語音特征和非獨立說話人的語音特征[12]。清華大學蔡連紅教授帶領的人機語音交互研究室也開展了語音情感識別的研究。在語音情感識別方面,他們主要是針對普通話,對其韻律特征進行分析。但因為語音的聲學特征比較復雜,不同人之間的聲學差異較大,所以目前針對非獨立人之間的語音情感識別技術還需要進一步研究。 2)人臉表情識別 人臉表情識別是情感識別中非常關鍵的一部分。在人類交流過程中,有55%是通過面部表情來完成情感傳遞的。20世紀70年代,美國心理學家Ekman和Friesen對現代人臉表情識別做了開創性的工作[15]。Ekman定義了人類的6種基本表情:高興、生氣、吃驚、恐懼、厭惡和悲傷,確定了識別對象的類別;建立了面部動作編碼系統(facial action coding system,FACS)[16],使研究者能夠按照系統劃分的一系列人臉動作單元來描述人臉面部動作,根據人臉運動與表情的關系,檢測人臉面部細微表情。隨后,Suwa等對人臉視頻動畫進行了人臉表情識別的*初嘗試。隨著模式識別與圖像處理技術的發展,人臉表情識別技術得到迅猛發展與廣泛的應用。目前,大多數情感機器人(如MIT的Kismet機器人、日本的AHI機器人等)都具有較好的人臉表情識別能力。 在我國,哈爾濱工業大學高文教授團隊首先引入了人臉表情識別的研究成果。隨后,北京科技大學王志良教授團隊將人臉表情識別算法應用于機器人的情感控制研究中。中國地質大學(武漢)劉振燾博士和陳略峰博士針對人臉表情識別技術展開研究并將其運用到多模態人機情感交互系統中[17]。另外,清華大學、中國科學院等都對面部表情識別有深入的研究。但是由于人類情感和表情的復雜性,識別算法的有效性和魯棒性還不能完全達到實際應用的要求,這些都是未來研究中有待解決的問題。 3)生理信號情感識別 MIT媒體實驗室情感計算研究團隊*早對生理信號的情感識別進行研究,同時也證明了生理信號運用到情感識別中是可行的。Picard教授在*初的實驗中采用肌電、皮膚電、呼吸和血容量搏動4種生理信號,并提取它們的24維統計特征對這4種情感狀態進行識別[18,19]。德國奧格斯堡大學計算機學院的Wagner等對心電、肌電、皮膚電和呼吸4種生理信號進行分析來識別高興、生氣、喜悅和悲傷4種情緒,取得了較好的效果[20]。韓國的Kim等研究發現通過測量心臟心率、皮膚導電率、體溫等生理信號可以有效地識別人的情感狀態[21,22],他們與三星公司合作開發了一種基于多生理信號短時監控的情感識別系統。 在我國,基于生理信號情感識別的研究起步較晚,北京航空航天大學毛峽教授團隊對不同情感狀態的生理信號進行了初步的研究。江蘇大學和上海交通大學也對生理信號的情感識別進行了研究,建立了自己的生理信號情感識別數據庫,從心電信號、腦電信號等進行特征提取和識別[23,24]。西南大學的劉光遠教授等對生理信號的情感識別進行了深入的研究,并出版專著《人體生理信號的情感分析方法》[25]。生理信號在信號表征的過程中具有一定的個體差異性,目前的研究還基本處在實驗室階段,主要通過刺激材料誘發被試的相應情緒狀態,而不同個體對于同一刺激材料的反應也會存在一定的差異,因此如何解決不同個體之間的差異性仍然是生理信號情感識別方面一個亟待解決的難點。 2. 情感合成與表達現狀 機器除了識別、理解人的情感之外,還需要進行情感的反饋,即機器的情感合成與表達[26]。人類的情感很難用指標量化,機器則恰恰相反,一堆冷冰冰的零部件被組裝起來,把看不見摸不著的“情感”量化成機器可理解、表達的數據產物。與人類的情感表達方式類似,機器的情感表達可以通過語音、面部表情和手勢等多模態信息進行傳遞,因此機器的情感合成可分為情感語音合成、面部表情合成和肢體語言合成。 1)情感語音合成 情感語音合成是將富有表現力的情感加入傳統的語音合成技術。常用的方法有基于波形拼接的合成方法、基于韻律特征的合成方法和基于統計參數特征的合成方法。基于波形拼接的合成方法是從事先建立的語音數據庫中選擇合適的語音單元,如半音節、音節、音素、字等,利用這些片段進行拼接處理得到想要的情感語音。基音同步疊加技術就是利用該方法實現的[27]。基于韻律特征的合成方法是將韻律學參數加入情感語音的合成中。He等提取基音頻率、短時能量等韻律學參數建立韻律特征模板,合成了帶有情感的語音信號[28]。基于統計參數特征的合成方法是通過提取基因頻率、共振峰等語音特征,再運用隱馬爾可夫模型對特征進行訓練得到模型參數,*終合成情感語音。Tokuda等運用統計參數特征的合成方法建立了情感語音合成系統[29]。MIT媒體實驗室Picard教授帶領的情感計算研究團隊開發了世界上**個情感語音合成系統——Affect Editor,**次嘗試使用基頻、時長、音質和清晰度等聲學特征的變化來合成情感語音[30]。 2)面部表情合成 面部表情合成是利用計算機技術在屏幕上合成一張帶有表情的人臉圖像。常用的方法有4種,即基于物理肌肉模型的方法、基于樣本統計的方法、基于偽肌肉模型的方法和基于運動向量分析的方法。基于物理肌肉模型的方法模擬面部肌肉的彈性,通過彈性網格建立表情模型[31]。基于樣本統計的方法對采集好的表情數據庫進行訓練,建立人臉表情的合成模型[32]。基于偽肌肉模型的方法采用樣條曲線、張量、自由曲面變形等方法模擬肌肉彈性[33]。基于運動向量分析的方法是對面部表情向量進行分析得到基向量,對這些基向量進行線性組合得到合成的表情[34]。荷蘭數學和計算機科學中心的Hendrix等提出的CharToon系統通過對情感圓盤上的7種已知表情(中性、悲傷、高興、生氣、害怕、厭惡和驚訝)進行插值生成各種表情。荷蘭特溫特大學的Bui等實現了一個基于模糊規則的面部表情生成系統,可將動畫Agent的7種表情和6種基本情感混合的表情映射到不同的3D人臉肌肉模型上[35]。我國西安交通大學的Yang等提出了
- >
小考拉的故事-套裝共3冊
- >
中國歷史的瞬間
- >
巴金-再思錄
- >
月亮與六便士
- >
經典常談
- >
推拿
- >
苦雨齋序跋文-周作人自編集
- >
回憶愛瑪儂