中图网(原中国图书网):网上书店,尾货特色书店,30万种特价书低至2折!

歡迎光臨中圖網(wǎng) 請 | 注冊
> >>
自然語言處理:基于大語言模型的方法

包郵 自然語言處理:基于大語言模型的方法

作者:車萬翔 著
出版社:電子工業(yè)出版社出版時間:2025-03-01
開本: 其他 頁數(shù): 440
中 圖 價:¥94.8(6.0折) 定價  ¥158.0 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>

自然語言處理:基于大語言模型的方法 版權(quán)信息

自然語言處理:基于大語言模型的方法 內(nèi)容簡介

自然語言處理被譽為“人工智能皇冠上的明珠”。深度學(xué)習(xí)等技術(shù)的引入為自然語言處理技術(shù)帶來了一場革命,尤其是近年來出現(xiàn)的基于大語言模型的方法,已成為研究自然語言處理的新范式。本書在介紹自然語言處理、深度學(xué)習(xí)等基本概念的基礎(chǔ)上,重點介紹新的基于預(yù)訓(xùn)練語言模型和大語言模型的自然語言處理技術(shù)。本書包括基礎(chǔ)知識、預(yù)訓(xùn)練語言模型和大語言模型三部分:基礎(chǔ)知識部分主要介紹自然語言處理和深度學(xué)習(xí)的基礎(chǔ)知識、基本工具集和常用數(shù)據(jù)集;預(yù)訓(xùn)練語言模型部分主要介紹語言模型、預(yù)訓(xùn)練詞向量、預(yù)訓(xùn)練語言模型的實現(xiàn)方法和應(yīng)用;大語言模型部分首先介紹大語言模型的預(yù)訓(xùn)練方法,其次介紹大語言模型的適配、應(yīng)用和評估方法,接著介紹基于預(yù)訓(xùn)練語言模型思想的各種延伸技術(shù),*后以DeepSeek 系列模型為例,介紹大語言模型的*新技術(shù)進展。除了理論知識,本書還有針對性地結(jié)合具體案例提供相應(yīng)的PyTorch 代碼實現(xiàn),讓讀者不僅能對理論有更深刻的理解,還能快速地實現(xiàn)自然語言處理模型,達到理論和實踐的統(tǒng)一。本書既適合具有一定機器學(xué)習(xí)基礎(chǔ)的高等院校學(xué)生、研究機構(gòu)的研究者,以及希望深入研究自然語言處理算法的計算機工程師閱讀,也適合對人工智能、深度學(xué)習(xí)、大語言模型和自然語言處理感興趣的學(xué)生和希望進入人工智能應(yīng)用領(lǐng)域的研究者參考。

自然語言處理:基于大語言模型的方法 目錄

目錄
推薦序III
推薦語IV
前言VI
數(shù)學(xué)符號X
第1 部分基礎(chǔ)知識
第1 章緒論2
1.1 自然語言處理的概念3
1.2 自然語言處理的難點.3
1.3 自然語言處理任務(wù)體系5
1.3.1 任務(wù)層級5
1.3.2 任務(wù)類別6
1.3.3 研究對象與層次6
1.4 自然語言處理技術(shù)發(fā)展歷史7
第2 章自然語言處理基礎(chǔ)11
2.1 文本的表示12
2.1.1 詞的獨熱表示12
2.1.2 詞的分布表示13
2.1.3 詞嵌入表示18
2.1.4 文本的詞袋表示18
2.2 自然語言處理任務(wù)19
2.2.1 自然語言處理基礎(chǔ)任務(wù)19
2.2.2 自然語言處理應(yīng)用任務(wù)25
2.3 基本問題30
2.3.1 文本分類問題30
2.3.2 結(jié)構(gòu)預(yù)測問題30
2.3.3 序列到序列問題33
2.4 評價指標34
2.4.1 自然語言理解類任務(wù)的評價指標35
2.4.2 自然語言生成類任務(wù)的評價指標36
2.5 小結(jié)37
第3 章基礎(chǔ)工具集與常用數(shù)據(jù)集38
3.1 tiktoken 子詞切分工具39
3.2 NLTK 工具集40
3.2.1 常用語料庫和詞典資源41
3.2.2 常用自然語言處理工具集43
3.3 LTP 工具集45
3.3.1 中文分詞45
3.3.2 其他中文自然語言處理功能45
3.4 PyTorch 基礎(chǔ)46
3.4.1 張量的基本概念46
3.4.2 張量的基本運算47
3.4.3 自動微分 51
3.4.4 調(diào)整張量形狀52
3.4.5 廣播機制53
3.4.6 索引與切片54
3.4.7 降維與升維54
3.5 大規(guī)模預(yù)訓(xùn)練數(shù)據(jù)集55
3.5.1 維基百科數(shù)據(jù)55
3.5.2 原始數(shù)據(jù)的獲取55
3.5.3 語料處理方法56
3.5.4 其他文本預(yù)訓(xùn)練數(shù)據(jù)集59
3.5.5 文本預(yù)訓(xùn)練數(shù)據(jù)集討論60
3.6 更多數(shù)據(jù)集60
3.7 小結(jié)62
第4 章自然語言處理中的神經(jīng)網(wǎng)絡(luò)基礎(chǔ)63
4.1 多層感知器模型64
4.1.1 感知器64
4.1.2 線性回歸64
4.1.3 Logistic 回歸65
4.1.4 Softmax 回歸66
4.1.5 多層感知器67
4.1.6 模型實現(xiàn)68
4.2 卷積神經(jīng)網(wǎng)絡(luò)70
4.2.1 模型結(jié)構(gòu)70
4.2.2 模型實現(xiàn)72
4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)74
4.3.1 模型結(jié)構(gòu)74
4.3.2 長短時記憶網(wǎng)絡(luò)75
4.3.3 模型實現(xiàn)77
4.3.4 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的序列到序列模型79
4.4 Transformer 模型79
4.4.1 注意力機制79
4.4.2 自注意力模型80
4.4.3 Transformer81
4.4.4 基于Transformer 的序列到序列模型85
4.4.5 Transformer 模型的優(yōu)缺點85
4.4.6 PyTorch 內(nèi)置模型實現(xiàn) 86
4.5 神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練87
4.5.1 損失函數(shù)87
4.5.2 梯度下降89
4.6 自然語言處理中的神經(jīng)網(wǎng)絡(luò)實戰(zhàn)92
4.6.1 情感分類實戰(zhàn)92
4.6.2 詞性標注實戰(zhàn)102
4.7 小結(jié)104
第2 部分預(yù)訓(xùn)練語言模型
第5 章語言模型107
5.1 語言模型的基本概念108
5.2 N 元語言模型108
5.2.1 N 元語言模型的基本概念108
5.2.2 N 元語言模型的實現(xiàn)109
5.2.3 N 元語言模型的平滑111
5.3 神經(jīng)網(wǎng)絡(luò)語言模型112
5.3.1 前饋神經(jīng)網(wǎng)絡(luò)語言模型113
5.3.2 循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型114
5.3.3 Transformer 語言模型116
5.3.4 基于神經(jīng)網(wǎng)絡(luò)語言模型生成文本 117
5.4 語言模型的實現(xiàn)118
5.4.1 數(shù)據(jù)準備 118
5.4.2 前饋神經(jīng)網(wǎng)絡(luò)語言模型119
5.4.3 循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型122
5.4.4 Transformer 語言模型125
5.5 語言模型性能評價129
5.6 小結(jié)130
第6 章預(yù)訓(xùn)練詞向量131
6.1 預(yù)訓(xùn)練靜態(tài)詞向量132
6.1.1 基于神經(jīng)網(wǎng)絡(luò)語言模型的靜態(tài)詞向量預(yù)訓(xùn)練132
6.1.2 Word2vec 詞向量132
6.1.3 負采樣135
6.1.4 GloVe 詞向量136
6.1.5 模型實現(xiàn)137
6.1.6 評價與應(yīng)用143
6.2 預(yù)訓(xùn)練動態(tài)詞向量148
6.2.1 雙向語言模型149
6.2.2 ELMo 詞向量151
6.2.3 模型實現(xiàn) 152
6.2.4 評價與應(yīng)用162
6.3 小結(jié) 164
第7 章預(yù)訓(xùn)練語言模型166
7.1 概述167
7.2 Decoder-only 模型167
7.2.1 GPT 168
7.2.2 GPT-2 172
7.2.3 GPT-3 173
7.3 Encoder-only 模型174
7.3.1 BERT 174
7.3.2 RoBERTa 185
7.3.3 ALBERT 189
7.3.4 ELECTRA 191
7.3.5 MacBERT 194
7.3.6 模型對比196
7.4 Encoder-Decoder 模型196
7.4.1 T5 197
7.4.2 BART 198
7.5 預(yù)訓(xùn)練模型的任務(wù)微調(diào):NLU 類201
7.5.1 單句文本分類202
7.5.2 句對文本分類205
7.5.3 閱讀理解207
7.5.4 序列標注211
7.6 預(yù)訓(xùn)練模型的任務(wù)微調(diào):NLG 類216
7.6.1 文本生成216
7.6.2 機器翻譯217
7.7 小結(jié)220
第3 部分 大語言模型
第8 章 大語言模型的預(yù)訓(xùn)練222
8.1 大語言模型的基本結(jié)構(gòu)223
8.1.1 Llama 223
8.1.2 Mixtral 226
8.1.3 縮放法則228
8.1.4 常見大語言模型對比230
8.2 注意力機制的優(yōu)化230
8.2.1 稀疏注意力231
8.2.2 多查詢注意力與分組查詢注意力233
8.2.3 FlashAttention 234
8.3 位置編碼策略237
8.3.1 RoPE 237
8.3.2 ALiBi 240
8.4 長上下文處理策略242
8.4.1 位置插值法242
8.4.2 基于NTK 的方法245
8.4.3 LongLoRA 246
8.4.4 YaRN 247
8.5 并行訓(xùn)練策略251
8.5.1 數(shù)據(jù)并行251
8.5.2 模型并行252
8.5.3 流水線并行254
8.5.4 混合并行254
8.5.5 零冗余優(yōu)化255
8.5.6 DeepSpeed 256
8.6 小結(jié)257
第9 章大語言模型的適配258
9.1 引言259
9.2 基于提示的推斷259
9.2.1 提示工程260
9.2.2 檢索與工具增強267
9.3 多任務(wù)指令微調(diào)269
9.3.1 現(xiàn)有數(shù)據(jù)集轉(zhuǎn)換271
9.3.2 自動生成指令數(shù)據(jù)集271
9.3.3 指令微調(diào)的實現(xiàn)273
9.4 基于人類反饋的強化學(xué)習(xí)276
9.4.1 基于人類反饋的強化學(xué)習(xí)算法的原理276
9.4.2 基于人類反饋的強化學(xué)習(xí)算法的改進279
9.4.3 人類偏好數(shù)據(jù)集280
9.5 參數(shù)高效精調(diào)280
9.5.1 LoRA 281
9.5.2 QLoRA 284
9.5.3 Adapter 288
9.5.4 Prefix-tuning 289
9.5.5 P-tuning 290
9.5.6 Prompt-tuning 291
9.6 大語言模型的中文適配 292
9.6.1 中文詞表擴充 292
9.6.2 中文增量訓(xùn)練 295
9.7 大語言模型壓縮 296
9.7.1 知識蒸餾 296
9.7.2 模型裁剪 302
9.7.3 參數(shù)量化 305
9.8 小結(jié) 310
第10 章大語言模型的應(yīng)用311
10.1 大語言模型的應(yīng)用示例312
10.1.1 知識問答 312
10.1.2 人機對話 313
10.1.3 文本摘要 314
10.1.4 代碼生成 315
10.2 生成指令數(shù)據(jù) 316
10.2.1 Self-Instruct 316
10.2.2 Alpaca 319
10.2.3 WizardLM 322
10.3 大語言模型的量化與部署324
10.3.1 llama.cpp 324
10.3.2 transformers 329
10.3.3 vLLM 332
10.4 本地化開發(fā)與應(yīng) 335
10.4.1 LangChain 335
10.4.2 privateGPT 338
10.5 工具調(diào)用與自動化 342
10.5.1 AutoGPT 342
10.5.2 HuggingGPT 346
10.6 小結(jié)348
第11 章大語言模型的能力評349
11.1 引言350
11.2 通用領(lǐng)域及任務(wù)評估350
11.2.1 語言理解能力350
11.2.2 文本生成能力352
11.2.3 知識與推理能力357
11.3 特定領(lǐng)域及任務(wù)評估360
11.3.1 數(shù)學(xué)360
11.3.2 代碼360
11.4 模型對齊能力評估362
11.4.1 有用性363
11.4.2 無害性365
11.4.3 安全性367
11.4.4 真實性367
11.5 大語言模型的評價方法368
11.5.1 評價設(shè)置:適配368
11.5.2 自動評價方法369
11.5.3 人工評價方法370
11.5.4 紅隊測試371
11.6 小結(jié)372
第12 章預(yù)訓(xùn)練語言模型的延伸374
12.1 多語言預(yù)訓(xùn)練模型375
12.1.1 多語言BERT 375
12.1.2 跨語言預(yù)訓(xùn)練語言模型376
12.1.3 多語言預(yù)訓(xùn)練語言模型的應(yīng)用378
12.1.4 大規(guī)模多語言模型379
12.2 代碼預(yù)訓(xùn)練模型379
12.2.1 代表性代碼預(yù)訓(xùn)練模型380
12.2.2 代碼預(yù)訓(xùn)練模型的對齊383
12.2.3 代碼預(yù)訓(xùn)練模型的應(yīng)用383
12.3 多模態(tài)預(yù)訓(xùn)練模型384
12.3.1 掩碼圖像模型384
12.3.2 基于對比學(xué)習(xí)的多模態(tài)預(yù)訓(xùn)練模型.386
12.3.3 圖到文預(yù)訓(xùn)練模型388
12.3.4 圖像或視頻生成390
12.4 具身預(yù)訓(xùn)練模型392
12.5 小結(jié)394
第13 章DeepSeek 系列模型原理簡介395
13.1 DeepSeek 系列模型概述396
13.2 模型架構(gòu)優(yōu)化398
13.2.1 算法優(yōu)化398
13.2.2 基礎(chǔ)設(shè)施優(yōu)化 402
13.3 基于強化學(xué)習(xí)習(xí)得推理能力405
13.3.1 DeepSeek-R1-Zero:僅通過強化學(xué)習(xí)習(xí)得推理能力405
13.3.2 DeepSeek-R1:規(guī)范性和泛化性408
13.3.3 蒸餾: 推理能力的遷移 411
13.4 小結(jié) 411
參考文獻413
術(shù)語表421
展開全部

自然語言處理:基于大語言模型的方法 作者簡介

車萬翔哈爾濱工業(yè)大學(xué)計算學(xué)部長聘教授/博士生導(dǎo)師,人工智能研究院副院長,國家級青年人才,龍江學(xué)者“青年學(xué)者”,斯坦福大學(xué)訪問學(xué)者。現(xiàn)任中國中文信息學(xué)會理事、計算語言學(xué)專業(yè)委員會副主任兼秘書長;國際計算語言學(xué)學(xué)會亞太分會(AACL)執(zhí)委兼秘書長;國際頂級會議ACL 2025程序委員會共同主席。承擔(dān)國家自然科學(xué)基金重點項目和專項項目、2030“新一代人工智能”重大項目課題等多項科研項目。曾獲AAAI 2013最佳論文提名獎、黑龍江省科技進步一等獎、黑龍江省青年科技獎等獎勵。郭 江博士,現(xiàn)從事大模型、檢索增強生成技術(shù)及企業(yè)數(shù)據(jù)智能等領(lǐng)域的研究,專注于相關(guān)技術(shù)在云服務(wù)中的應(yīng)用與開發(fā)。曾任麻省理工學(xué)院計算機科學(xué)與人工智能實驗室(CSAIL)博士后研究員,博士畢業(yè)于哈爾濱工業(yè)大學(xué),并于約翰斯·霍普金斯大學(xué)聯(lián)合培養(yǎng)。在人工智能與自然語言處理領(lǐng)域發(fā)表學(xué)術(shù)論文30余篇,累計被引用2400余次(據(jù)Google Scholar統(tǒng)計),并出版學(xué)術(shù)專著與譯著各一部。曾獲百度獎學(xué)金(全球每年僅授予10人)及中文信息學(xué)會“優(yōu)秀博士學(xué)位論文”提名獎(2018年)。多次受邀擔(dān)任國際頂級學(xué)術(shù)會議高級程序委員會委員和領(lǐng)域主席。崔一鳴博士,高級工程師,現(xiàn)任科大訊飛研究院資深科學(xué)家、科大訊飛北京研究院副院長,IEEE高級會員、CCF高級會員。博士畢業(yè)于哈爾濱工業(yè)大學(xué)。主要從事大模型、預(yù)訓(xùn)練模型、機器閱讀理解等相關(guān)領(lǐng)域的研究工作,曾獲得相關(guān)領(lǐng)域國際評測20余項冠軍。所牽頭研制的中文預(yù)訓(xùn)練模型、大模型開源項目(如Chinese-BERT-wwm、Chinese-LLaMA-Alapca系列),在開源平臺累計獲得4萬次以上star,多次登頂GitHub Trending全球項目及開發(fā)者排行榜。在ACL、EMNLP、AAAI、IEEE/ACM TASLP等會議或期刊發(fā)表學(xué)術(shù)論文40余篇,其中ESI高被引論文1篇。曾獲國際語義評測SemEval-2022最佳論文提名獎,2篇論文入選Paper Digest評選的最具影響力論文,多次入選“全球前2%頂尖科學(xué)家”。申請發(fā)明專利40余項、獲授權(quán)專利16項。擔(dān)任ACL 2025高級領(lǐng)域主席,EMNLP 2021、AACL 2022領(lǐng)域主席,ARR行動編輯,TACL常任審稿人等學(xué)術(shù)職務(wù)。

商品評論(0條)
暫無評論……
書友推薦
編輯推薦
返回頂部
中圖網(wǎng)
在線客服
主站蜘蛛池模板: 产业规划_产业园区规划-产业投资选址及规划招商托管一体化服务商-中机院产业园区规划网 | TwistDx恒温扩增-RAA等温-Jackson抗体-默瑞(上海)生物科技有限公司 | 辐射色度计-字符亮度测试-反射式膜厚仪-苏州瑞格谱光电科技有限公司 | 上海租车公司_上海包车_奔驰租赁_上海商务租车_上海谐焕租车 | 婚博会2024时间表_婚博会门票领取_婚博会地址-婚博会官网 | 5L旋转蒸发器-20L-50L旋转蒸发器-上海越众仪器设备有限公司 | 铝单板_铝窗花_铝单板厂家_氟碳包柱铝单板批发价格-佛山科阳金属 | 运动木地板厂家_体育木地板安装_篮球木地板选购_实木运动地板价格 | 耐酸泵,耐腐蚀真空泵,耐酸真空泵-淄博华舜耐腐蚀真空泵有限公司 精密模具-双色注塑模具加工-深圳铭洋宇通 | 铝镁锰板_铝镁锰合金板_铝镁锰板厂家_铝镁锰金属屋面板_安徽建科 | 刺绳_刀片刺网_刺丝滚笼_不锈钢刺绳生产厂家_安平县浩荣金属丝网制品有限公司-安平县浩荣金属丝网制品有限公司 | 广州监控安装公司_远程监控_安防弱电工程_无线wifi覆盖_泉威安防科技 | 老城街小面官网_正宗重庆小面加盟技术培训_特色面馆加盟|牛肉拉面|招商加盟代理费用多少钱 | 深圳市八百通智能技术有限公司官方网站 | 酒万铺-酒水招商-酒水代理| 苏州工作服定做-工作服定制-工作服厂家网站-尺品服饰科技(苏州)有限公司 | 岸电电源-60HZ变频电源-大功率变频电源-济南诚雅电子科技有限公司 | 陶氏道康宁消泡剂_瓦克消泡剂_蓝星_海明斯德谦_广百进口消泡剂 | 山东led显示屏,山东led全彩显示屏,山东LED小间距屏,临沂全彩电子屏-山东亚泰视讯传媒有限公司 | 硬度计_影像测量仪_维氏硬度计_佛山市精测计量仪器设备有限公司厂家 | 合肥角钢_合肥槽钢_安徽镀锌管厂家-昆瑟商贸有限公司 | 皮带机-带式输送机价格-固定式胶带机生产厂家-河南坤威机械 | 二手Sciex液质联用仪-岛津气质联用仪-二手安捷伦气质联用仪-上海隐智科学仪器有限公司 | 蓝米云-专注于高性价比香港/美国VPS云服务器及海外公益型免费虚拟主机 | 恒温水槽与水浴锅-上海熙浩实业有限公司 | 杭州月嫂技术培训服务公司-催乳师培训中心报名费用-产后康复师培训机构-杭州优贝姆健康管理有限公司 | 卫生型双针压力表-高温防腐差压表-安徽康泰电气有限公司 | 骨灰存放架|骨灰盒寄存架|骨灰架厂家|智慧殡葬|公墓陵园管理系统|网上祭奠|告别厅智能化-厦门慈愿科技 | 全温恒温摇床-水浴气浴恒温摇床-光照恒温培养摇床-常州金坛精达仪器制造有限公司 | 污水处理设备-海普欧环保集团有限公司| 【中联邦】增稠剂_增稠粉_水性增稠剂_涂料增稠剂_工业增稠剂生产厂家 | 红外光谱仪维修_二手红外光谱仪_红外压片机_红外附件-天津博精仪器 | 组织研磨机-高通量组织研磨仪-实验室多样品组织研磨机-东方天净 传递窗_超净|洁净工作台_高效过滤器-传递窗厂家广州梓净公司 | 水上浮桥-游艇码头-浮动码头-游船码头-码瑞纳游艇码头工程 | 深圳办公室装修,办公楼/写字楼装修设计,一级资质 - ADD写艺 | 山东钢格板|栅格板生产厂家供应商-日照森亿钢格板有限公司 | 蓝米云-专注于高性价比香港/美国VPS云服务器及海外公益型免费虚拟主机 | 防火门|抗爆门|超大门|医疗门|隔声门-上海加汇门业生产厂家 | 郑州宣传片拍摄-TVC广告片拍摄-微电影短视频制作-河南优柿文化传媒有限公司 | 英思科GTD-3000EX(美国英思科气体检测仪MX4MX6)百科-北京嘉华众信科技有限公司 | SMC-SMC电磁阀-日本SMC气缸-SMC气动元件展示网|