中图网(原中国图书网):网上书店,尾货特色书店,30万种特价书低至2折!

歡迎光臨中圖網 請 | 注冊
> >
大語言模型開發 用開源模型開發本地系統

包郵 大語言模型開發 用開源模型開發本地系統

作者:范煜 著
出版社:清華大學出版社出版時間:2024-09-01
開本: 16開 頁數: 332
中 圖 價:¥85.0(7.2折) 定價  ¥118.0 登錄后可看到會員價
加入購物車 收藏
開年大促, 全場包郵
?新疆、西藏除外
本類五星書更多>

大語言模型開發 用開源模型開發本地系統 版權信息

  • ISBN:9787302670513
  • 條形碼:9787302670513 ; 978-7-302-67051-3
  • 裝幀:一般膠版紙
  • 冊數:暫無
  • 重量:暫無
  • 所屬分類:>

大語言模型開發 用開源模型開發本地系統 本書特色

·本書基本覆蓋大語言模型開發的多個方面。整體上可以參照OpenAI的安德烈·卡帕西(Andrej Karpathy)在微軟的2023年Build大會報告中介紹的GPT助手訓練流程。 ·本書的內容來源不僅包含網絡上的各類教程和文章,也包括原始論文和源代碼。 ·本書不但適用于大型語言模型應用開發人員,而且對于渴望深度探究ChatGPT背后的運行機制,更高效地運用和優化其功能的實踐者,同樣具有極高的參考價值。

大語言模型開發 用開源模型開發本地系統 內容簡介

本書旨在幫助讀者理解開源大語言模型的架構、訓練和推理過程,以及相關的源代碼。主要研究對象是Meta開源的Llama模型。本書從Python Numpy實現單層感知機和神經網絡開始,逐步講解了如何實現Transformer模型和Llama模型。此外,本書還介紹了增量預訓練模型、監督微調和人類反饋強化學習等模型訓練過程。對于私有知識的加入,書中重點介紹了監督微調,也介紹了RAG中詞向量的計算。本書采用循序漸進的方式,通過功能框圖、代碼分解執行、執行結果顯示、背景知識補充等手段幫助讀者理解模型和算法。
本書的核心讀者群體定位為大語言模型應用的開發人員,特別適合那些想從計算機視覺轉向自然語言處理的人。此外,本書還適合作為大學本科生及研究生相關課程的參考教材使用。

大語言模型開發 用開源模型開發本地系統 目錄

第1章 自然語言處理 1.1人工智能的技術構成 002 1.1.1 機器學習和深度學習的區別 002 1.1.2 表示學習與深度學習的關系 003 1.2自然語言處理的發展階段 004 1.3規則驅動的方法 005 1.4統計方法 005 1.4.1 隱馬爾可夫模型 006 1.4.2 條件隨機場 007 1.5深度學習方法 008 1.5.1 Word2Vec詞嵌入 008 1.5.2 循環神經網絡 009 1.5.3 長短時記憶網絡模型 009 1.5.4 門控循環單元模型 010 1.6序列到序列模型 011 1.7注意力機制 011 1.8Transformer模型 012 1.9預訓練模型 012 1.10大語言模型 014 1.10.1 根據架構分類 014 1.10.2 根據訓練方式和預測方式 分類 015 第2章 深度學習基礎 2.1深度學習 017 2.2感知機 017 2.2.1 前饋網絡 018 2.2.2 權重更新 019 2.2.3 反向傳播 021 2.3激活函數 022 2.3.1 常用激活函數 023 2.3.2 新型激活函數 024 2.4優化函數(算法) 026 2.4.1 梯度下降法 026 2.4.2 動量優化算法 027 2.4.3 AdaGrad優化算法 027 2.4.4 RMSProp優化算法 028 2.4.5 Adam優化算法 029 2.4.6 AdamW優化算法 030 2.5權值初始化 030 2.5.1 批歸一化 031 2.5.2 層歸一化 031 2.5.3 RMSNorm 032 2.6損失函數 033 2.6.1 均方誤差 034 2.6.2 均方根誤差 034 2.6.3 交叉熵損失 035 2.7模型評估 036 2.7.1 偏差/方差 036 2.7.2 過擬合與欠擬合 037 2.8正則化 038 2.9SoftMax函數 039 2.10簡易神經網絡搭建 039 2.11模型優化 042 2.11.1 梯度消失 042 2.11.2 梯度爆炸 043 2.11.3 優化手段 043 2.11.4 調參技巧 044 第3章 PyTorch開發基礎 3.1深度學習框架 046 3.2PyTorch簡介 046 3.3PyTorch安裝 047 3.3.1 CUDA安裝 047 3.3.2 阿里云GPU云服務器 049 3.3.3 安裝PyTorch 049 3.3.4 安裝其他庫 050 3.3.5 檢查開發環境 050 3.4張量 050 3.4.1 張量創建函數定義 050 3.4.2 張量創建函數清單 051 3.4.3 隨機張量:torch.randn() 052 3.4.4 張量操作 054 3.4.5 CUDA張量 055 3.5梯度計算 055 3.5.1 導數與偏導數 055 3.5.2 導數規則 056 3.5.3 梯度 056 3.5.4 公式推導 056 3.5.5 自動梯度計算 057 3.5.6 代碼解析 058 3.6反向傳播 058 3.7torch.nn模塊構建神經網絡 060 3.7.1 nn.Linear層 060 3.7.2 nn.Sigmoid激活函數 061 3.7.3 nn.BCELoss損失函數 062 3.8torch.optim優化器 062 3.9訓練、驗證和測試過程 063 3.10用PyTorch實現神經網絡 064 3.10.1 實現單層感知機 064 3.10.2 實現簡單神經網絡 065 3.10.3 用torch.nn實現簡單神經 網絡 067 3.11源代碼常用模塊 068 3.11.1 nn.Parameter類 068 3.11.2 typing模塊 069 3.11.3 logging模塊 070 3.11.4 dataclasses 071 3.11.5 Fire庫 073 第4章 Transformer模型詳解 4.1大語言模型的簡介和分類 076 4.1.1 簡介 076 4.1.2 分類 076 4.2Transformer模型 078 4.2.1 模型構成 078 4.2.2 因果解碼器結構 080 4.3分詞 081 4.3.1 詞匯表 082 4.3.2 詞匯表的生成 083 4.3.3 分詞算法 083 4.3.4 字節對編碼 084 4.3.5 句子片段 084 4.3.6 分詞過程 085 4.3.7 詞匯索引 085 4.4詞嵌入 086 4.4.1 標記嵌入 087 4.4.2 位置編碼 089 4.4.3 詞匯索引和詞嵌入向量關系 090 4.5位置編碼方法 090 4.5.1 原生位置編碼 090 4.5.2 旋轉位置編碼 092 4.5.3 位置編碼的實現 093 4.5.4 Llama位置編碼 094 4.5.5 長度擴展 097 4.6自注意力機制 098 4.6.1 原理 098 4.6.2 注意力分數的計算 099 4.6.3 多頭注意力機制 101 4.6.4 分組查詢注意力 102 4.6.5 Llama 2源代碼分析 103 4.7殘差連接和層歸一化 106 4.7.1 預歸一化 106 4.7.2 RMSNorm 107 4.7.3 Llama 2源代碼分析 107 4.8前饋網絡 108 4.8.1 激活函數 109 4.8.2 前饋網絡隱藏層維度 110 4.8.3 Llama 2源代碼分析 110 4.8.4 演示代碼 112 4.9損失函數 113 4.10掩碼 114 4.11PyTorch的nn.Transformer模塊 115 4.11.1 模塊組件 115 4.11.2 __call__函數 116 4.11.3 *簡單的標準Transformer 模型 116 4.11.4 純解碼器模型 117 4.11.5 Llama 2模型 118 第5章 大語言模型 5.1什么是大語言模型 125 5.2GPT簡介 125 5.3Llama簡介 126 5.4Llama的訓練 128 5.4.1 訓練數據 128 5.4.2 預訓練 129 5.5Llama 2 chat 130 5.5.1 監督微調 130 5.5.2 基于人類反饋的強化學習 130 5.6Llama 2模型結構 132 5.7Llama 2權重文件夾 134 5.8參數量計算 136 5.8.1 標準Transformer解碼器模型 136 5.8.2 Llama 2模型 137 5.8.3用Transformers模塊計算 139 5.8.4 直接解析模型文件 139 第6章 模型訓練 6.1模型訓練的種類 146 6.2Hugging Face訓練環境 146 6.3Transformers庫 147 6.3.1 主要功能 147 6.3.2 函數 148 6.4訓練程序 149 6.5分詞處理 149 6.5.1 相關名詞 149 6.5.2 input IDs 150 6.5.3 特殊標記 150 6.5.4 AutoTokenizer 152 6.5.5 分詞 153 6.5.6 下劃線 154 6.5.7 填空 154 6.6量化技術 155 6.6.1 8位量化技術 155 6.6.2 LLM.int8() 156 6.6.3 NF4和QLoRA 157 6.6.4 BitsAndBytes模型 159 6.7優化技術 161 6.7.1 LoRA 161 6.7.2 PEFT庫 162 6.8訓練代碼示例 164 6.8.1 導入庫和函數 164 6.8.2 參數定義 164 6.8.3 加載模型 165 6.8.4 加載分詞器 165 6.8.5 數據預處理 165 6.8.6 用LoRA權重調整模型 168 6.8.7 LoRA模型訓練 168 6.8.8 模型的合并 170 6.8.9 模型推理 172 6.8.10 加載多個LoRA并隨時切換 173 6.9加速技術和工具 175 6.9.1 DeepSpeed 176 6.9.2 FairScale 176 6.9.3 GPTQ 177 6.9.4 FSDP 177 6.10超長上下文 178 6.10.1 外推能力 178 6.10.2 外推手段 179 6.10.3 StreamingLLM 179 第7章 模型微調 7.1監督微調 182 7.2開源數據集 182 7.3數據集訪問 182 7.3.1 datasets庫 182 7.3.2 datasets常用的函數和類 183 7.3.3 加載數據集 183 7.3.4 數據集的處理 184 7.4開源微調數據集 186 7.4.1 主要數據集 186 7.4.2 數據集格式 186 7.4.3SQuAD 187 7.4.4 OSSIST1數據集格式 189 7.4.5 格式轉換代碼及分析 190 7.5主要的微調模型 193 7.5.1 Alpaca羊駝 193 7.5.2 Vicuna小羊駝 193 7.5.3 LLaMA.cpp 194 7.5.4 Guanco 194 第8章 人類反饋強化學習 8.1強化學習架構 196 8.2演員-評論家架構 197 8.3近端策略優化架構 197 8.4DeepSpeed Chat 198 8.5開源RLHF數據集 199 8.6訓練數據讀取 205 8.6.1 第1步:SFT監督微調數據 206 8.6.2 第2步:獎勵模型微調數據 207 8.6.3 第3步:RLHF微調數據 209 8.7監督微調 210 8.8獎勵模型微調 212 8.9RLHF微調 217 8.9.1 代碼運行環境 218 8.9.2 準備訓練數據 219 8.9.3 建立模型 221 8.9.4 演員模型、參考模型生成對數 概率 221 8.9.5 計算對數概率 223 8.9.6 計算期望獎勵 225 8.9.7 KL散度 226 8.9.8 計算實際獎勵 226 8.9.9 優勢函數 228 8.9.10 計算優勢和回報 228 8.9.11 損失函數 229 第9章 模型推理 9.1模型文件 233 9.2推理 233 9.2.1 單輪推理 235 9.2.2 多輪推理 235 9.3GPU推理 235 9.3.1 單卡 235 9.3.2 多卡 235 9.3.3 多機 236 9.4Hugging Face Transformers庫 237 9.4.1 簡介 237 9.4.2 Pipeline API 237 9.4.3 Model and Tokenizer API 239 9.4.4 單輪推理 240 9.4.5 多輪推理 242 9.4.6 LoRA推理 245 9.4.7 vLLM 245 9.5LLaMA.cpp 248 9.5.1 特色與優勢 248 9.5.2 模型量化 249 9.5.3 k-quant量化 249 9.5.4 開發環境安裝 250 9.5.5 構建執行程序 252 9.5.6 轉換模型 252 9.5.7 推理 252 9.6Gradio 254 9.6.1 簡介 254 9.6.2 基本用法 255 9.6.3 復雜交互 255 9.6.4 聊天機器人 257 9.6.5 Gradio多輪推理 258 9.7解碼策略 261 9.7.1 常見解碼策略 261 9.7.2 推理超參數 262 9.7.3 溫度 262 9.7.4 top-k 263 9.7.5 top-p 264 9.7.6 重復懲罰 265 9.7.7 代碼實現 266 9.8推理加速技術 270 9.8.1 簡介 270 9.8.2 純C推理 271 9.8.3 投機采樣 271 9.8.4 Medusa 272 9.8.5 流式推理 272 第10章 中文私有模型開發 10.1基本思路 275 10.2中文詞匯表 276 10.3模型下載 277 10.3.1 安裝Git LFS 277 10.3.2 獲取下載鏈接 277 10.3.3 直接單擊鏈接分文件逐一 下載 278 10.4開發方案 279 10.4.1 演示系統開發 279 10.4.2 生產系統開發 280 10.4.3 實訓系統開發 280 10.5中文語料 280 10.5.1 預訓練語料 282 10.5.2 微調數據集 285 第11章 模型評估 11.1大語言模型評估 292 11.2評估指標 293 11.2.1 困惑度 293 11.2.2 HellaSwag 293 11.2.3 BLEU 294 11.2.4 ROUGE 294 11.2.5 METEOR 294 11.3基于上下文的學習 294 11.4Llama 2預訓練模型的評估 296 11.5MMLU 299 11.6標準基準測試 299 11.7代碼生成 300 11.7.1 Human-Eval代碼生成基準 測試 300 11.7.2 MBPP程序生成基準測試 300 11.8考試AGI Eval 301 11.9GSM8K 302 11.10世界知識 302 11.10.1 NaturalQuestions 302 11.10.2 TriviaQA 303 11.11通義千問評測 303 11.12BBH 304 第12章 用于RAG的詞向量計算 12.1信息整合 306 12.2向量數據庫 307 12.3詞向量 307 12.4嵌入向量生成模型 308 12.5池化技術 309 12.6計算詞向量 310 12.6.1 使用OpenAI 310 12.6.2 使用Hugging Face 310 12.6.3 使用Llama 2 312 12.7批量生成嵌入向量 313 12.8池化算法 315 12.9詞向量文檔檢索 317 12.10示例 318 12.10.1 PGVector簡介 318 12.10.2 PGVector安裝 318 12.10.3 向量數據庫操作 319 參考文獻 320
展開全部

大語言模型開發 用開源模型開發本地系統 作者簡介

范煜,江蘇南通人,畢業于南京航空航天大學,研究員級高級工程師,中國商業聯合會數據分析專業委員會專家組成員,南通理工學院教師,上海范思軟件有限公司創始人,中國移動集團、51CTO外聘講師經常在全國各地講授大數據、數據分析人工智能、大語言模型等方面課程。研發了Fancy Q&A大語言模型應用開發平臺。著有《人工智能與ChatGPT》《數據革命:大數據價值實現方法、技術與案例》。兼具人工智能、大數據、軟件、工業控制(嵌入式系統和軟PLC)技術背景。目前主要從事基于大語言模型的知識庫建設與知識問答應用的研究和開發。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
返回頂部
中圖網
在線客服
主站蜘蛛池模板: 气动隔膜阀_气动隔膜阀厂家_卫生级隔膜阀价格_浙江浙控阀门有限公司 | 澳门精准正版免费大全,2025新澳门全年免费,新澳天天开奖免费资料大全最新,新澳2025今晚开奖资料,新澳马今天最快最新图库 | 荣事达手推洗地机_洗地机厂家_驾驶式扫地机_工业清洁设备 | 岸电电源-60HZ变频电源-大功率变频电源-济南诚雅电子科技有限公司 | 厌氧反应器,IC厌氧反应器,厌氧三相分离器-山东创博环保科技有限公司 | 九爱图纸|机械CAD图纸下载交流中心 | 河南生物显微镜,全自动冰冻切片机-河南荣程联合科技有限公司 | [官网]叛逆孩子管教_戒网瘾学校_全封闭问题青少年素质教育_新起点青少年特训学校 | 扫地车厂家-山西洗地机-太原电动扫地车「大同朔州吕梁晋中忻州长治晋城洗地机」山西锦力环保科技有限公司 | 早报网| 海鲜池-专注海鲜鱼缸、移动海鲜缸、饭店鱼缸设计定做-日晟水族厂家 | 威廉希尔WilliamHill·足球(中国)体育官方网站 | 石膏基自流平砂浆厂家-高强石膏基保温隔声自流平-轻质抹灰石膏粉砂浆批发-永康市汇利建设有限公司 | 紧急切断阀_气动切断阀_不锈钢阀门_截止阀_球阀_蝶阀_闸阀-上海上兆阀门制造有限公司 | 安平县鑫川金属丝网制品有限公司,防风抑尘网,单峰防风抑尘,不锈钢防风抑尘网,铝板防风抑尘网,镀铝锌防风抑尘网 | wika威卡压力表-wika压力变送器-德国wika代理-威卡总代-北京博朗宁科技 | 九爱图纸|机械CAD图纸下载交流中心 | 北京律师咨询_知名专业北京律师事务所_免费法律咨询 | 除尘布袋_液体过滤袋_针刺毡滤料-杭州辉龙过滤技术有限公司 | 土壤有机碳消解器-石油|表层油类分析采水器-青岛溯源环保设备有限公司 | 实验室装修_实验室设计_实验室规划设计- 上海广建净化工程公司 | 三效蒸发器_多效蒸发器价格_四效三效蒸发器厂家-青岛康景辉 | 楼梯定制_楼梯设计施工厂家_楼梯扶手安装制作-北京凌步楼梯 | 海水晶,海水素,海水晶价格-潍坊滨海经济开发区强隆海水晶厂 | 卫生人才网-中国专业的医疗卫生医学人才网招聘网站! | 首页-瓜尔胶系列-化工单体系列-油田压裂助剂-瓜尔胶厂家-山东广浦生物科技有限公司 | 生产加气砖设备厂家很多,杜甫机械加气砖设备价格公道 | 底部填充胶_电子封装胶_芯片封装胶_芯片底部填充胶厂家-东莞汉思新材料 | 粘度计,数显粘度计,指针旋转粘度计| 定量包装机,颗粒定量包装机,粉剂定量包装机,背封颗粒包装机,定量灌装机-上海铸衡电子科技有限公司 | 滚筒线,链板线,总装线,流水线-上海体能机电有限公司 | 深圳公司注册-工商注册代理-注册公司流程和费用_护航财税 | 路面机械厂家 | 红立方品牌应急包/急救包加盟,小成本好项目代理_应急/消防/户外用品加盟_应急好项目加盟_新奇特项目招商 - 中红方宁(北京) 供应链有限公司 | 专业生产动态配料系统_饲料配料系统_化肥配料系统等配料系统-郑州鑫晟重工机械有限公司 | 深圳成考网-深圳成人高考报名网| 威客电竞(vk·game)·电子竞技赛事官网 | 暖气片十大品牌厂家_铜铝复合暖气片厂家_暖气片什么牌子好_欣鑫达散热器 | 铝镁锰板厂家_进口钛锌板_铝镁锰波浪板_铝镁锰墙面板_铝镁锰屋面-杭州军晟金属建筑材料 | 蔬菜清洗机_环速洗菜机_异物去除清洗机_蔬菜清洗机_商用洗菜机 - 环速科技有限公司 | 镀锌角钢_槽钢_扁钢_圆钢_方矩管厂家_镀锌花纹板-海邦钢铁(天津)有限公司 |