中图网(原中国图书网):网上书店,尾货特色书店,30万种特价书低至2折!

歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)

包郵 Transformer深度解析與NLP應(yīng)用開發(fā)

出版社:清華大學(xué)出版社出版時(shí)間:2025-04-01
開本: 16開 頁數(shù): 356
中 圖 價(jià):¥92.8(7.8折) 定價(jià)  ¥119.0 登錄后可看到會(huì)員價(jià)
加入購(gòu)物車 收藏
開年大促, 全場(chǎng)包郵
?新疆、西藏除外
本類五星書更多>

Transformer深度解析與NLP應(yīng)用開發(fā) 版權(quán)信息

Transformer深度解析與NLP應(yīng)用開發(fā) 本書特色

在深度學(xué)習(xí)領(lǐng)域,Transformer模型以其革新性的架構(gòu)和卓越的性能,如同一顆璀璨的明星,照亮了自然語言處理(NLP)乃至整個(gè)人工智能的發(fā)展道路!禩ransformer深度解析與NLP應(yīng)用開發(fā)》這本書,無疑是引領(lǐng)讀者踏入這一前沿領(lǐng)域的鑰匙。

《Transformer深度解析與NLP應(yīng)用開發(fā)》對(duì)Transformer架構(gòu)的核心理論進(jìn)行了系統(tǒng)而深入的介紹。從架構(gòu)原理到自注意力機(jī)制,詳細(xì)闡述了其相較于傳統(tǒng)方法的顯著優(yōu)勢(shì),讓讀者能夠深刻理解這一技術(shù)為何能成為深度學(xué)習(xí)領(lǐng)域的變革者。同時(shí),針對(duì)BERT、GPT等經(jīng)典衍生模型的應(yīng)用也有詳盡的講解,使讀者全面掌握Transformer在語言模型中的廣泛應(yīng)用。

全書內(nèi)容豐富,分為理論基礎(chǔ)、技術(shù)實(shí)踐和高級(jí)應(yīng)用三個(gè)部分。在理論基礎(chǔ)部分,為讀者夯實(shí)了知識(shí)根基;技術(shù)實(shí)踐部分,圍繞數(shù)據(jù)預(yù)處理、文本分類、序列標(biāo)注、文本生成、多語言模型等核心任務(wù)展開,結(jié)合遷移學(xué)習(xí)、微調(diào)與優(yōu)化技術(shù),展示了Transformer在不同場(chǎng)景中的實(shí)際運(yùn)用;高級(jí)應(yīng)用部分則聚焦于語義匹配、問答系統(tǒng)和文本聚類等領(lǐng)域,進(jìn)一步拓展讀者的視野。此外,針對(duì)企業(yè)級(jí)開發(fā)需求,特別介紹了ONNX與TensorRT優(yōu)化推理性能的應(yīng)用實(shí)踐,為大規(guī)模數(shù)據(jù)處理及低資源部署提供了切實(shí)可行的解決方案。

《Transformer深度解析與NLP應(yīng)用開發(fā)》兼具理論深度與實(shí)踐應(yīng)用價(jià)值,案例豐富生動(dòng)。無論是大模型及NLP開發(fā)人員、工程師、研究人員,還是數(shù)據(jù)科學(xué)家以及高校師生,都能從中獲得寶貴的知識(shí)和啟示。閱讀本書,讀者將仿佛置身于一場(chǎng)知識(shí)的盛宴,不僅能夠深入理解Transformer的核心技術(shù),還能掌握其在NLP應(yīng)用開發(fā)中的實(shí)際技巧和方法。相信每一位讀者都能從本書中汲取智慧的力量,在Transformer與NLP的應(yīng)用開發(fā)中取得突破,共同推動(dòng)這一領(lǐng)域的創(chuàng)新發(fā)展。


Transformer深度解析與NLP應(yīng)用開發(fā) 內(nèi)容簡(jiǎn)介

《Transformer深度解析與NLP應(yīng)用開發(fā)》系統(tǒng)解析Transformer的核心原理,從理論到實(shí)踐,幫助讀者全面掌握其在語言模型中的應(yīng)用,并通過豐富案例剖析技術(shù)細(xì)節(jié)!禩ransformer深度解析與NLP應(yīng)用開發(fā)》共12章,內(nèi)容涵蓋Transformer模型的架構(gòu)原理、自注意力機(jī)制及其相對(duì)于傳統(tǒng)方法的優(yōu)勢(shì),并詳細(xì)剖析BERT、GPT等經(jīng)典衍生模型的應(yīng)用。書中圍繞數(shù)據(jù)預(yù)處理、文本分類、序列標(biāo)注、文本生成、多語言模型等核心任務(wù),結(jié)合遷移學(xué)習(xí)、微調(diào)與優(yōu)化技術(shù),展示Transformer在語義匹配、問答系統(tǒng)和文本聚類等場(chǎng)景中的實(shí)際應(yīng)用。針對(duì)企業(yè)級(jí)開發(fā)需求,還特別介紹了ONNX與TensorRT優(yōu)化推理性能的*佳實(shí)踐,為大規(guī)模數(shù)據(jù)處理及低資源部署提供了解決方案。
《Transformer深度解析與NLP應(yīng)用開發(fā)》兼具理論深度與實(shí)際應(yīng)用價(jià)值,內(nèi)容系統(tǒng),案例豐富,適合大模型及NLP研發(fā)人員、工程師、數(shù)據(jù)科學(xué)研究人員以及高校師生閱讀與參考。

Transformer深度解析與NLP應(yīng)用開發(fā)Transformer深度解析與NLP應(yīng)用開發(fā) 前言

自然語言處理(NLP)作為人工智能的重要分支,其技術(shù)發(fā)展在過去幾十年里經(jīng)歷了多次突破。從*早基于統(tǒng)計(jì)和規(guī)則的自然語言處理模型,到深度學(xué)習(xí)技術(shù)崛起后的神經(jīng)網(wǎng)絡(luò)模型,NLP領(lǐng)域迎來了前所未有的快速發(fā)展。Transformer模型的誕生更是引領(lǐng)了一場(chǎng)技術(shù)革命,使得語言理解和生成任務(wù)的性能達(dá)到了全新的高度。
Transformer模型之所以在NLP領(lǐng)域獨(dú)樹一幟,離不開其創(chuàng)新的注意力機(jī)制。傳統(tǒng)的序列模型如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM),盡管在語言建模上取得了一定的成功,但由于依賴逐步計(jì)算的序列結(jié)構(gòu),在處理長(zhǎng)文本時(shí)面臨顯著的性能瓶頸。而Transformer通過自注意力機(jī)制,可以直接關(guān)注輸入序列中的任意位置,不僅提高了模型的并行化效率,還顯著增強(qiáng)了捕捉長(zhǎng)距離語義關(guān)系的能力。本書將以形象生動(dòng)的方式詳細(xì)剖析這些機(jī)制,讓讀者對(duì)Transformer的工作原理有更直觀的理解。
本書的目標(biāo)是為讀者提供一個(gè)全面且深入的Transformer模型學(xué)習(xí)路徑。筆者希望通過嚴(yán)謹(jǐn)?shù)募夹g(shù)講解與豐富的代碼示例,讓讀者不僅掌握Transformer模型的核心原理,還能在實(shí)際項(xiàng)目中靈活運(yùn)用。本書結(jié)構(gòu)清晰,從基礎(chǔ)知識(shí)入手,逐步引導(dǎo)讀者深入理解Transformer的內(nèi)部機(jī)制,包括多頭注意力、自注意力機(jī)制、位置編碼等設(shè)計(jì)精髓,并通過與傳統(tǒng)模型(如RNN、CNN)的對(duì)比,解析其在捕捉復(fù)雜語義關(guān)系、建模長(zhǎng)序列依賴方面的獨(dú)特優(yōu)勢(shì)。

Transformer深度解析與NLP應(yīng)用開發(fā) 目錄

引 言 1
一、從統(tǒng)計(jì)學(xué)習(xí)到Transformer崛起 1
二、開發(fā)環(huán)境配置:構(gòu)建高效的Transformer開發(fā)平臺(tái) 3
第1章 Transformer與自然語言處理概述 7
1.1 Transformer的基礎(chǔ)架構(gòu)與原理 7
1.1.1 多頭注意力機(jī)制的核心計(jì)算 8
1.1.2 位置編碼與網(wǎng)絡(luò)穩(wěn)定性的設(shè)計(jì) 11
1.2 深度學(xué)習(xí)經(jīng)典架構(gòu)CNN和RNN的局限性 15
1.2.1 CNN在自然語言處理中的應(yīng)用與局限 15
1.2.2 RNN架構(gòu)與長(zhǎng)序列建模問題 17
1.3 自注意力機(jī)制 19
1.3.1 自注意力機(jī)制的矩陣計(jì)算原理 19
1.3.2 計(jì)算復(fù)雜度與信息保持 21
1.4 BERT雙向編碼器與GPT單向生成器 23
1.4.1 BERT架構(gòu)與雙向信息編碼 23
1.4.2 GPT架構(gòu)與單向生成能力 26
1.5 基于Transformer的遷移學(xué)習(xí) 27
1.5.1 遷移學(xué)習(xí)方法與特定任務(wù)適應(yīng)性 27
1.5.2 遷移學(xué)習(xí)的實(shí)際應(yīng)用與優(yōu)化策略 30
1.6 Hugging Face平臺(tái)開發(fā)基礎(chǔ) 34
1.6.1 關(guān)于Hugging Face 35
1.6.2 環(huán)境準(zhǔn)備 35
1.6.3 快速上手:使用預(yù)訓(xùn)練模型 35
1.6.4 數(shù)據(jù)預(yù)處理與分詞 36
1.6.5 使用自定義數(shù)據(jù)集進(jìn)行推理 36
1.6.6 微調(diào)預(yù)訓(xùn)練模型 37
1.6.7 保存與加載模型 38
1.6.8 部署模型到Hugging Face Hub 39
1.7 本章小結(jié) 40
1.8 思考題 40
第2章 文本預(yù)處理與數(shù)據(jù)增強(qiáng) 41
2.1 文本數(shù)據(jù)清洗與標(biāo)準(zhǔn)化 41
2.1.1 正則表達(dá)式在文本清洗中的應(yīng)用 41
2.1.2 詞干提取與詞形還原技術(shù) 46
2.2 分詞與嵌入技術(shù) 48
2.2.1 n-gram分詞與BERT分詞原理 48
2.2.2 Word2Vec與BERT詞嵌入的動(dòng)態(tài)表示 50
2.3 字符級(jí)別與詞級(jí)別的嵌入方法 56
2.3.1 字符級(jí)嵌入模型的實(shí)現(xiàn)與優(yōu)勢(shì) 56
2.3.2 FastText在細(xì)粒度信息捕捉中的應(yīng)用 58
2.4 數(shù)據(jù)集格式與標(biāo)簽處理 63
2.4.1 JSON和CSV格式的數(shù)據(jù)讀取與處理 63
2.4.2 多標(biāo)簽分類的標(biāo)簽編碼與存儲(chǔ)優(yōu)化 68
2.5 數(shù)據(jù)增強(qiáng)方法 70
2.5.1 同義詞替換與句子反轉(zhuǎn)的增強(qiáng)策略 70
2.5.2 EDA方法在數(shù)據(jù)擴(kuò)充中的應(yīng)用 73
2.6 本章小結(jié) 77
2.7 思考題 77
第3章 基于Transformer的文本分類 79
3.1 傳統(tǒng)的規(guī)則與機(jī)器學(xué)習(xí)的文本分類對(duì)比 79
3.1.1 基于邏輯樹和正則表達(dá)式的關(guān)鍵詞分類 79
3.1.2 TF-IDF與詞嵌入在傳統(tǒng)分類算法中的應(yīng)用 81
3.2 BERT模型在文本分類中的應(yīng)用 83
3.2.1 BERT特征提取與分類頭的實(shí)現(xiàn) 83
3.2.2 BERT在二分類與多分類任務(wù)中的微調(diào) 86
3.3 數(shù)據(jù)集加載與預(yù)處理 88
3.3.1 使用Hugging Face datasets庫(kù)加載數(shù)據(jù)集 89
3.3.2 數(shù)據(jù)清洗與DataLoader的批處理優(yōu)化 90
3.4 文本分類中的微調(diào)技巧 92
3.4.1 學(xué)習(xí)率調(diào)度器與參數(shù)凍結(jié) 92
3.4.2 Warmup Scheduler與線性衰減 95
3.5 本章小結(jié) 98
3.6 思考題 99
第4章 依存句法與語義解析 100
4.1 依存句法的基本概念 100
4.1.1 依存關(guān)系術(shù)語解析:主謂賓結(jié)構(gòu)與修飾關(guān)系 100
4.1.2 使用SpaCy構(gòu)建依存關(guān)系樹與句法提取 102
4.2 基于Tree-LSTM的依存句法打分方法 104
4.2.1 Tree-LSTM處理依存樹結(jié)構(gòu)的實(shí)現(xiàn) 104
4.2.2 句法結(jié)構(gòu)的打分與信息傳遞機(jī)制 107
4.3 使用GNN實(shí)現(xiàn)依存關(guān)系 109
4.3.1 圖神經(jīng)網(wǎng)絡(luò)在依存結(jié)構(gòu)建模中的應(yīng)用 110
4.3.2 節(jié)點(diǎn)特征與邊權(quán)重的依存關(guān)系表示 112
4.4 Transformer在依存解析中的應(yīng)用 115
4.4.1 BERT上下文嵌入與GNN模型的結(jié)合 115
4.4.2 混合模型在依存關(guān)系建模中的應(yīng)用 117
4.5 依存句法與語義角色標(biāo)注的結(jié)合 118
4.5.1 語義角色標(biāo)注的定義與依存關(guān)系融合 119
4.5.2 使用AllenNLP實(shí)現(xiàn)句法結(jié)構(gòu)與語義角色標(biāo)注的結(jié)合 121
4.6 本章小結(jié) 123
4.7 思考題 124
第5章 序列標(biāo)注與命名實(shí)體識(shí)別 125
5.1 序列標(biāo)注任務(wù)與常用方法 125
5.1.1 BIO編碼與標(biāo)簽平滑技術(shù) 125
5.1.2 條件隨機(jī)場(chǎng)層的數(shù)學(xué)原理與實(shí)現(xiàn) 129
5.2 雙向LSTM與CRF的結(jié)合 131
5.2.1 雙向LSTM的結(jié)構(gòu)與工作原理 131
5.2.2 ELMo模型的上下文嵌入與序列標(biāo)注 133
5.3 BERT在命名實(shí)體識(shí)別中的應(yīng)用 134
5.3.1 BERT的CLS標(biāo)記與Token向量在NER中的作用 134
5.3.2 NER任務(wù)的微調(diào)流程與代碼實(shí)現(xiàn) 136
5.4 實(shí)體識(shí)別任務(wù)的模型評(píng)估 138
5.4.1 NER評(píng)估標(biāo)準(zhǔn):準(zhǔn)確率、召回率與F1分?jǐn)?shù) 138
5.4.2 各類實(shí)體的性能評(píng)估與代碼實(shí)現(xiàn) 140
5.5 結(jié)合Gazetteers與實(shí)體識(shí)別 141
5.5.1 領(lǐng)域特定詞典的構(gòu)建與應(yīng)用 141
5.5.2 結(jié)合詞典信息提升實(shí)體識(shí)別準(zhǔn)確性 144
5.6 本章小結(jié) 147
5.7 思考題 147
第6章 文本生成任務(wù)的Transformer實(shí)現(xiàn) 149
6.1 生成式文本任務(wù)的基本方法 149
6.1.1 n-gram模型與馬爾可夫假設(shè) 149
6.1.2 n-gram模型在長(zhǎng)文本生成中的局限性 150
6.2 優(yōu)化生成策略 152
6.2.1 Greedy Search與Beam Search算法 152
6.2.2 Top-K采樣與Top-P采樣 155
6.3 T5模型在文本摘要中的應(yīng)用 159
6.3.1 T5編碼器-解碼器架構(gòu)在文本摘要中的應(yīng)用 159
6.3.2 T5模型的任務(wù)指令化微調(diào)與應(yīng)用優(yōu)化 161
6.4 生成式Transformer模型的比較 164
6.4.1 GPT-2、T5和BART的架構(gòu)區(qū)別與生成任務(wù)適配 164
6.4.2 生成式模型在文本摘要和對(duì)話生成中的對(duì)比應(yīng)用 167
6.5 Transformer在對(duì)話生成中的應(yīng)用 169
6.5.1 對(duì)話生成模型的上下文保持與一致性 169
6.5.2 使用GPT-2與DialoGPT構(gòu)建多輪對(duì)話生成系統(tǒng) 172
6.6 文本生成的端到端實(shí)現(xiàn) 173
6.6.1 新聞?wù)蝿?wù)的文本生成流程 173
6.6.2 多種生成方式結(jié)合:提升生成質(zhì)量 175
6.7 本章小結(jié) 178
6.8 思考題 178
第7章 多語言模型與跨語言任務(wù) 180
7.1 多語言詞嵌入與對(duì)齊技術(shù) 180
7.1.1 對(duì)抗訓(xùn)練在詞嵌入對(duì)齊中的應(yīng)用 180
7.1.2 跨語言文本相似度計(jì)算的投影矩陣方法 183
7.2 XLM與XLM-R的實(shí)現(xiàn) 185
7.2.1 XLM與XLM-RoBERTa在多語言任務(wù)中的模型結(jié)構(gòu) 185
7.2.2 多語言文本分類與翻譯任務(wù)中的應(yīng)用實(shí)例 186
7.3 使用XLM-RoBERTa進(jìn)行多語言文本分類 188
7.3.1 XLM-RoBERTa的加載與微調(diào)流程 188
7.3.2 標(biāo)簽不均衡與語言分布不平衡的處理技巧 190
7.4 跨語言模型中的翻譯任務(wù) 192
7.4.1 XLM-RoBERTa在翻譯任務(wù)中的應(yīng)用 192
7.4.2 翻譯任務(wù)的模型微調(diào)與質(zhì)量提升策略 194
7.5 多語言模型的代碼實(shí)現(xiàn)與評(píng)估 197
7.5.1 多語言模型的數(shù)據(jù)加載與訓(xùn)練實(shí)現(xiàn) 197
7.5.2 BLEU與F1分?jǐn)?shù)在跨語言任務(wù)中的評(píng)估應(yīng)用 199
7.5.3 多語言模型綜合應(yīng)用示例 202
7.6 本章小結(jié) 205
7.7 思考題 206
第8章 深度剖析注意力機(jī)制 207
8.1 Scaled Dot-Product Attention的實(shí)現(xiàn) 207
8.1.1 查詢、鍵和值的矩陣計(jì)算與縮放 207
8.1.2 softmax歸一化與注意力權(quán)重的提取與分析 210
8.2 多頭注意力的實(shí)現(xiàn)細(xì)節(jié)與優(yōu)化 212
8.2.1 多頭注意力的并行計(jì)算與輸出拼接 212
8.2.2 初始化方法與正則化技巧防止過擬合 215
8.3 層歸一化與殘差連接在注意力模型中的作用 217
8.3.1 層歸一化的標(biāo)準(zhǔn)化與穩(wěn)定性提升 217
8.3.2 殘差連接在信息流動(dòng)與收斂性中的作用 219
8.4 注意力機(jī)制在不同任務(wù)中的應(yīng)用 221
8.4.1 機(jī)器翻譯與摘要生成中的注意力應(yīng)用實(shí)例 221
8.4.2 注意力權(quán)重可行性解釋 225
8.5 Attention Is All You Need論文中的代碼實(shí)現(xiàn) 226
8.5.1 多頭注意力與前饋神經(jīng)網(wǎng)絡(luò)的分步實(shí)現(xiàn) 226
8.5.2 位置編碼的實(shí)現(xiàn)與代碼逐行解析 229
8.6 本章小結(jié) 232
8.7 思考題 232
第9章 文本聚類與BERT主題建模 234
9.1 文本聚類任務(wù)概述 234
9.1.1 K-means算法在文本聚類中的應(yīng)用 234
9.1.2 層次聚類算法的實(shí)現(xiàn)與潛在類別發(fā)現(xiàn) 237
9.2 使用Sentence-BERT進(jìn)行聚類 238
9.2.1 Sentence-BERT的文本嵌入表示 239
9.2.2 短文本與長(zhǎng)文本聚類的相似度分析 240
9.3 BERT在主題建模中的應(yīng)用 244
9.3.1 BERT與LDA結(jié)合實(shí)現(xiàn)主題模型 244
9.3.2 動(dòng)態(tài)嵌入生成語義化主題表示 246
9.4 本章小結(jié) 250
9.5 思考題 250
第10章 基于語義匹配的問答系統(tǒng) 251
10.1 使用Sentence-BERT進(jìn)行語義相似度計(jì)算 251
10.1.1 句子嵌入在語義相似度中的應(yīng)用 251
10.1.2 余弦相似度的計(jì)算與代碼實(shí)現(xiàn) 253
10.2 語義匹配任務(wù)中的數(shù)據(jù)標(biāo)注與處理 255
10.2.1 數(shù)據(jù)標(biāo)注格式設(shè)計(jì) 255
10.2.2 數(shù)據(jù)不平衡問題:重采樣與加權(quán) 259
10.3 基于BERT的問答系統(tǒng) 261
10.3.1 BERT在SQuAD數(shù)據(jù)集上的微調(diào)流程 262
10.3.2 CLS與SEP標(biāo)記在問答任務(wù)中的作用 266
10.4 使用DistilBERT進(jìn)行MRC優(yōu)化 269
10.4.1 DistilBERT的蒸餾過程與模型簡(jiǎn)化 269
10.4.2 DistilBERT在問答系統(tǒng)中的高效應(yīng)用 271
10.5 本章小結(jié) 275
10.6 思考題 275
第11章 常用模型微調(diào)技術(shù) 277
11.1 微調(diào)基礎(chǔ)概念 277
11.1.1 凍結(jié)層與解凍策略的應(yīng)用場(chǎng)景 277
11.1.2 微調(diào)中的參數(shù)不對(duì)稱更新 281
11.2 使用領(lǐng)域數(shù)據(jù)微調(diào)BERT模型 283
11.2.1 金融與醫(yī)學(xué)領(lǐng)域數(shù)據(jù)的預(yù)處理與標(biāo)簽平衡 283
11.2.2 BERT微調(diào)過程中的參數(shù)初始化與學(xué)習(xí)率設(shè)置 285
11.3 參數(shù)高效微調(diào)(PEFT)進(jìn)階 288
11.3.1 LoRA、Prefix Tuning的實(shí)現(xiàn)與應(yīng)用 288
11.3.2 Adapter Tuning的工作原理與代碼實(shí)現(xiàn) 291
11.4 本章小結(jié) 294
11.5 思考題 294
第12章 高級(jí)應(yīng)用:企業(yè)級(jí)系統(tǒng)開發(fā)實(shí)戰(zhàn) 296
12.1 基于Transformer的情感分析綜合案例 296
12.1.1 基于BERT的情感分類:數(shù)據(jù)預(yù)處理與模型訓(xùn)練 296
12.1.2 Sentence-BERT文本嵌入 300
12.1.3 情感分類結(jié)果綜合分析 305
12.2 使用ONNX和TensorRT優(yōu)化推理性能 307
12.2.1 Transformer模型的ONNX轉(zhuǎn)換步驟 307
12.2.2 TensorRT量化與裁剪技術(shù)的推理加速 312
12.2.3 ONNX Runtime的多線程推理優(yōu)化與分布式部署 316
12.2.4 TensorRT動(dòng)態(tài)批量大小支持與自定義算子優(yōu)化 318
12.3 構(gòu)建NLP企業(yè)問答系統(tǒng) 321
12.3.1 清洗、增強(qiáng)和格式化數(shù)據(jù) 322
12.3.2 模型訓(xùn)練、微調(diào)及推理服務(wù)支持 327
12.3.3 RESTful API接口 330
12.3.4 系統(tǒng)狀態(tài)記錄與異常監(jiān)控 332
12.3.5 系統(tǒng)開發(fā)總結(jié) 337
12.4 本章小結(jié) 339
12.5 思考題 339

展開全部

Transformer深度解析與NLP應(yīng)用開發(fā) 作者簡(jiǎn)介

梁志遠(yuǎn),博士,畢業(yè)于北京航空航天大學(xué)。長(zhǎng)期從事人工智能、大語言模型的開發(fā),專注于深度學(xué)習(xí)、自然語言處理、數(shù)據(jù)分析與智能決策等領(lǐng)域。主持或參與多項(xiàng)科研項(xiàng)目,涵蓋模型訓(xùn)練優(yōu)化、知識(shí)蒸餾、自動(dòng)推理與多模態(tài)學(xué)習(xí)等方向。致力于推動(dòng)人工智能技術(shù)在工業(yè)應(yīng)用、智能交互與數(shù)據(jù)驅(qū)動(dòng)中的實(shí)踐與發(fā)展。

韓曉晨,博士,長(zhǎng)期從事高性能計(jì)算與大模型訓(xùn)練算力優(yōu)化研究。近十年來,專注于智能計(jì)算架構(gòu)優(yōu)化及大規(guī)模數(shù)據(jù)處理,深耕控制算法、機(jī)器視覺等領(lǐng)域。近年來,重點(diǎn)研究大模型訓(xùn)練加速、算力調(diào)度與異構(gòu)計(jì)算優(yōu)化,致力于提升計(jì)算效率與資源利用率,推動(dòng)大規(guī)模人工智能模型的高效部署與應(yīng)用。

商品評(píng)論(0條)
暫無評(píng)論……
書友推薦
本類暢銷
返回頂部
中圖網(wǎng)
在線客服
主站蜘蛛池模板: 房车价格_依维柯/大通/东风御风/福特全顺/江铃图片_云梯搬家车厂家-程力专用汽车股份有限公司 | 化妆品加工厂-化妆品加工-化妆品代加工-面膜加工-广东欧泉生化科技有限公司 | Eiafans.com_环评爱好者 环评网|环评论坛|环评报告公示网|竣工环保验收公示网|环保验收报告公示网|环保自主验收公示|环评公示网|环保公示网|注册环评工程师|环境影响评价|环评师|规划环评|环评报告|环评考试网|环评论坛 - Powered by Discuz! | 超声波破碎仪-均质乳化机(供应杭州,上海,北京,广州,深圳,成都等地)-上海沪析实业有限公司 | 除湿机|工业除湿机|抽湿器|大型地下室车间仓库吊顶防爆除湿机|抽湿烘干房|新风除湿机|调温/降温除湿机|恒温恒湿机|加湿机-杭州川田电器有限公司 | 申江储气罐厂家,储气罐批发价格,储气罐规格-上海申江压力容器有限公司(厂) | 集菌仪_智能集菌仪_全封闭集菌仪_无菌检查集菌仪厂家-那艾 | 二手电脑回收_二手打印机回收_二手复印机回_硒鼓墨盒回收-广州益美二手电脑回收公司 | DDoS安全防护官网-领先的DDoS安全防护服务商 | 缓蚀除垢剂_循环水阻垢剂_反渗透锅炉阻垢剂_有机硫化物-郑州威大水处理材料有限公司 | 首页_欧瑞传动官方网站--主营变频器、伺服系统、新能源、软起动器、PLC、HMI | 钢丝绳探伤仪-钢丝绳检测仪-钢丝绳探伤设备-洛阳泰斯特探伤技术有限公司 | 法兰连接型电磁流量计-蒸汽孔板节流装置流量计-北京凯安达仪器仪表有限公司 | 博客-悦享汽车品质生活| 塑料熔指仪-塑料熔融指数仪-熔体流动速率试验机-广东宏拓仪器科技有限公司 | 众能联合-提供高空车_升降机_吊车_挖机等一站工程设备租赁 | 通信天线厂家_室分八木天线_对数周期天线_天线加工厂_林创天线源头厂家 | 定制奶茶纸杯_定制豆浆杯_广东纸杯厂_[绿保佳]一家专业生产纸杯碗的厂家 | 制氮设备-变压吸附制氮设备-制氧设备-杭州聚贤气体设备制造有限公司 | 硅胶管挤出机厂家_硅胶挤出机生产线_硅胶条挤出机_臣泽智能装备 贵州科比特-防雷公司厂家提供贵州防雷工程,防雷检测,防雷接地,防雷设备价格,防雷产品报价服务-贵州防雷检测公司 | 马尔表面粗糙度仪-MAHR-T500Hommel-Mitutoyo粗糙度仪-笃挚仪器 | 万师讲师网-优质讲师培训师供应商,讲师认证,找讲师来万师 | 便携式表面粗糙度仪-彩屏硬度计-分体式粗糙度仪-北京凯达科仪科技有限公司 | 工业铝型材生产厂家_铝合金型材配件批发精加工定制厂商 - 上海岐易铝业 | 深圳善跑体育产业集团有限公司_塑胶跑道_人造草坪_运动木地板 | 微波消解仪器_智能微波消解仪报价_高压微波消解仪厂家_那艾 | 深圳市超时尚职业培训学校,培训:月嫂,育婴,养老,家政;化妆,美容,美发,美甲. | 福兰德PVC地板|PVC塑胶地板|PVC运动地板|PVC商用地板-中国弹性地板系统专业解决方案领先供应商! 福建成考网-福建成人高考网 | 胜为光纤光缆_光纤跳线_单模尾纤_光纤收发器_ODF光纤配线架厂家直销_北京睿创胜为科技有限公司 - 北京睿创胜为科技有限公司 | 雨燕360体育免费直播_雨燕360免费NBA直播_NBA篮球高清直播无插件-雨燕360体育直播 | 北京网络营销推广_百度SEO搜索引擎优化公司_网站排名优化_谷歌SEO - 北京卓立海创信息技术有限公司 | 物流之家新闻网-最新物流新闻|物流资讯|物流政策|物流网-匡匡奈斯物流科技 | 聚氨酯保温钢管_聚氨酯直埋保温管道_聚氨酯发泡保温管厂家-沧州万荣防腐保温管道有限公司 | 微波萃取合成仪-电热消解器价格-北京安合美诚科学仪器有限公司 | 小型铜米机-干式铜米机-杂线全自动铜米机-河南鑫世昌机械制造有限公司 | SMN-1/SMN-A ABB抽屉开关柜触头夹紧力检测仪-SMN-B/SMN-C-上海徐吉 | 佛山市钱丰金属不锈钢蜂窝板定制厂家|不锈钢装饰线条|不锈钢屏风| 电梯装饰板|不锈钢蜂窝板不锈钢工艺板材厂家佛山市钱丰金属制品有限公司 | 排烟防火阀-消防排烟风机-正压送风口-厂家-价格-哪家好-德州鑫港旺通风设备有限公司 | 洗砂机械-球磨制砂机-洗沙制砂机械设备_青州冠诚重工机械有限公司 | 电镀整流器_微弧氧化电源_高频电解电源_微弧氧化设备厂家_深圳开瑞节能 | 深圳昂为官网-气体分析仪,沼气分析仪,动态配气仪,气体传感器厂家 |