-
>
貨幣大歷史:金融霸權與大國興衰六百年
-
>
(精)方力鈞作品圖錄
-
>
《藏書報》2021合訂本
-
>
(精)中國當代書畫名家作品集·范碩:書法卷+繪畫卷(全2卷)
-
>
(噴繪樓閣版)女主臨朝:武則天的權力之路
-
>
書里掉出來一只狼+狼的故事-全2冊
-
>
奇思妙想創(chuàng)意玩具書(精裝4冊)
大語言模型技術與應用 版權信息
- ISBN:9787113314521
- 條形碼:9787113314521 ; 978-7-113-31452-1
- 裝幀:暫無
- 冊數(shù):暫無
- 重量:暫無
- 所屬分類:
大語言模型技術與應用 內(nèi)容簡介
全書共16章,在內(nèi)容上涵蓋了機器學習知識的主要方面,包括機器學習概述、機器學習基礎、線性模型、決策樹、集成學習、聚類分析、神經(jīng)網(wǎng)絡、貝葉斯分類器、支持向量機、降維與特征選擇、半監(jiān)督學習、概率圖模型、推薦系統(tǒng)、深度學習、強化學習、機器學習的發(fā)展等。本書針對高等院校、職業(yè)教育學生發(fā)展需要,是為相關各專業(yè)“機器學習”基礎或通識課程全新設計編寫的主教材,閱讀和教學時可依照學習進度與需求,做適當選擇。目錄第1章 概述1.1 人工智能基礎1.1.1 人工智能的定義1.1.2 人工智能的實現(xiàn)途徑1.1.3 機器學習和深度學習1.1.4 監(jiān)督學習與無監(jiān)督學習1.2 大語言模型的定義1.3 大語言模型形成基礎1.3.1 Blockhead思維實驗1.3.2 大模型的歷史基礎1.3.3 基于Transformer模型1.3.4 大模型的世界模型問題1.3.5 文化知識傳遞和語言支持1.4 通用人工智能1.4.1 什么是通用人工智能1.4.2 大模型與通用人工智能1.4.3 人工智能生成內(nèi)容【作 業(yè)】【實踐與思考】了解典型的開源大語言模型第2章 大模型基礎2.1 什么是語言模型2.1.1 語言模型的定義2.1.2 注意力機制2.1.3 開源還是閉源2.2 大模型發(fā)展三階段2.2.1 基礎模型階段2.2.2 能力探索階段2.2.3 突破發(fā)展階段2.3 TRANSFORMER模型2.3.1 Transformer過程2.3.2 Transformer結構2.3.3 Transformer模塊2.4 生成式預訓練語言模型GPT2.5 大模型的結構312.5.1 LLaMA的模型結構2.5.2 LLaMA的注意力機制【作 業(yè)】【實踐與思考】基于CHATGPT的免費工具:CHATAI小組件第3章 大模型的架構3.1 大模型生成原理3.1.1 上下文學習3.1.2 指令跟隨3.1.3 ZeroFew-Shot3.1.4 深度學習架構3.1.5 訓練策略及優(yōu)化技術3.2 多模態(tài)語言模型3.2.1 多模態(tài)指令調(diào)優(yōu)3.2.2 多模態(tài)上下文學習3.2.3 多模態(tài)思維鏈3.2.4 大模型輔助視覺推理3.3 應用技術架構3.3.1 指令工程3.3.2 函數(shù)調(diào)用3.3.3 檢索增強生成3.3.4 微調(diào)3.4 谷歌的GEMINI大模型3.5 谷歌的GEMINI 1.5多模態(tài)大模型3.5.1 深入理解海量信3.5.2 橫跨不同媒介3.5.3 高效處理更長代碼3.5.4 高效架構的秘密:MoE3.5.5 卡拉曼語翻譯3.6 OPENAI的SORA大模型3.6.1 Sora技術報告分析3.6.2 Sora主要技術特點3.6.3 Sora的模型訓練過程3.7 谷歌開源大模型GEMMA【作 業(yè)】【實踐與思考】熟悉阿里云大模型“通意千問”第4章 人工:數(shù)據(jù)標注4.1 知識與知識表示4.1.1 知識的概念4.1.2 知識表示方法4.1.3 表示方法的選擇4.2 什么是數(shù)據(jù)標注4.3 數(shù)據(jù)標注的分類4.3.1 圖像標注4.3.2 語音標注4.3.3 3D點云標注4.3.4 文本標4.4 制定標注規(guī)則4.5 進行數(shù)據(jù)標注4.6 標注團隊管理【作 業(yè)】【實踐與思考】熟悉GLOBE EXPLORER智能搜索引擎第5章 大模型預訓練數(shù)據(jù)5.1 數(shù)據(jù)來源5.1.1 通用數(shù)據(jù)5.1.2 專業(yè)數(shù)據(jù)5.2 數(shù)據(jù)處理5.2.1 質(zhì)量過濾5.2.2 冗余去除5.2.3 隱私消除5.2.4 詞元切分5.3 數(shù)據(jù)影響分析5.3.1 數(shù)據(jù)規(guī)模5.3.2 數(shù)據(jù)質(zhì)量5.3.3 數(shù)據(jù)多樣性5.4 典型的開源數(shù)據(jù)集5.4.1 Pile5.4.2 ROOTS5.5 數(shù)據(jù)集面臨的挑戰(zhàn)5.5.1 數(shù)據(jù)集規(guī)模和質(zhì)量待提升5.5.2 大模型與數(shù)據(jù)集相輔相成5.5.3 數(shù)據(jù)集標準規(guī)范需健全5.5.4 數(shù)據(jù)存儲性能待提高【作 業(yè)】 【實踐與思考】第6章 大模型的開發(fā)組織6.1 大模型開發(fā)流程6.2 大模型的數(shù)據(jù)組織6.2.1 數(shù)據(jù)采集6.2.2 數(shù)據(jù)清洗和預處理6.2.3 數(shù)據(jù)標注6.2.4 數(shù)據(jù)集劃分6.2.5 模型設計6.2.6 模型初始化6.2.7 模型訓練6.2.8 模型驗證6.2.9 模型保存6.2.10 模型測試6.2.11 模型部署6.3 訓練集、測試集、驗證集不同之處6.3.1 目的與功能不同6.3.2 數(shù)據(jù)交互頻率不同6.3.3 數(shù)據(jù)劃分與比例不同6.3.4 使用時機不同6.4 訓練集、測試集、驗證集相似之處6.4.1 數(shù)據(jù)來源一致6.4.2 相似的數(shù)據(jù)預處理6.4.3 目標一致,各具獨立性6.4.4 保證數(shù)據(jù)質(zhì)量和代表性【作 業(yè)】【實踐與思考】谷歌開源大模型GEMMA第7章 分布式訓練7.1 分而治之7.1.1 消息傳遞接口MPI7.1.2 MapReduce7.1.3 批處理和流處理7.2 什么是分布式處理7.2.1 分布式處理的特點7.2.2 分布式處理發(fā)展過程7.2.3 分布式構成方式7.2.4 分布式處理系統(tǒng)7.3 分布式訓練概述7.4 分布式并行訓練策略7.4.1 數(shù)據(jù)并行性7.4.2 模型并行性7.4.3 流水線并行性7.4.4 混合并行7.5 分布式訓練的集群架構【作 業(yè)】【實驗與思考】大模型背后的“世界芯片行業(yè)老大”英偉達第8章 提示工程與微調(diào)8.1 什么是提示工程8.1.1 模型設置8.1.2 基本概念8.1.3 設計提示的通用技巧8.2 大模型為什么要微調(diào)8.3 提示學習和語境學習8.3.1 提示學習8.3.2 語境學習8.4 上下文窗口擴展8.5 指令數(shù)據(jù)的構建8.5.1 手動構建指令8.5.2 自動構建指令8.5.3 開源指令數(shù)據(jù)集8.6 微調(diào)及其PEFT流行方案8.6.1 微調(diào)技術路線8.6.2 提示微調(diào)8.6.3 前綴微調(diào)8.6.4 LoRA8.6.5 QLoRA【作 業(yè)】【實驗與思考】文生圖:注冊使用MIDJOURNEY繪圖工具第9章 強化學習方法9.1 什么是強化學習9.1.1 強化學習的定義9.1.2 強化學習發(fā)展歷史9.2 與無監(jiān)督和監(jiān)督學習的區(qū)別9.2.1 與監(jiān)督和無監(jiān)督學習的不同9.2.2 大模型環(huán)境下的強化學習9.2.3 學習方式不同9.2.4 先驗知識與標注數(shù)據(jù)9.3 強化學習的基礎9.3.1 基于模型與免模型環(huán)境9.3.2 探索與利用9.3.3 片段還是連續(xù)性任務9.3.4 網(wǎng)絡模型設計9.3.5 數(shù)據(jù)依賴性9.4 強化學習分類9.4.1 從獎勵中學習9.4.2 被動強化學習9.4.3 主動強化學習9.4.4 強化學習中的泛化9.4.5 學徒學習與逆強化學習【作 業(yè)】【實踐與思考】海爾智家發(fā)明專利:用于虛擬現(xiàn)實系統(tǒng)的控制方法及實現(xiàn)第10章 基于大模型的智能體10.1 智能體和環(huán)境10.2 智能體的良好行為10.2.1 性能度量10.2.2 理性10.2.3 全知、學習和自主10.3 環(huán)境的本質(zhì)10.3.1 指定任務環(huán)10.3.2 任務環(huán)境的屬性10.4 智能體的結構10.4.1 智能體程序10.4.2 學習型智能體10.4.3 智能體組件的工作10.5 構建大模型智能體10.5.1 基于大模型的智能體10.5.2 觀測與感知10.5.3 記憶與檢索10.5.4 推理和規(guī)劃10.5.5 行動和執(zhí)行【作 業(yè)】【實踐與思考】SORA進擊:人工智能改變體育產(chǎn)業(yè)第11章 大模型應用框架11.1 大模型經(jīng)典哲學問題11.1.1 組成性11.1.2 天賦論與語言習得11.1.3 語言理解與基礎11.1.4 世界模型11.1.5 文化知識傳遞和語言支持11.2 大模型的構建流程11.2.1 確定需求大小11.2.2 數(shù)據(jù)收集11.2.3 數(shù)據(jù)集預處理11.2.4 大模型預訓練11.2.5 任務微調(diào)11.2.6 部署11.3 大模型的應用場景11.3.1 機器翻譯、文本理解與分析11.3.2 惡意軟件分析11.3.3 自然語言生成11.3.4 搜索與知識提取11.3.5 代碼開發(fā)11.3.6 檢測和預防網(wǎng)絡攻擊11.3.7 虛擬助理和客戶支持11.3.8 轉(zhuǎn)錄11.3.9 市場調(diào)研11.3.10 SEO關鍵詞優(yōu)化11.4 案例:MAGIC突破Q算法【作 業(yè)】【實踐與思考】特斯拉OPTIMUS人形機器人持續(xù)進化第12章 技術倫理與限制12.1 人工智能面臨的倫理挑戰(zhàn)12.1.1 人工智能與人類的關系12.1.2 人與智能機器的溝通12.2 大數(shù)據(jù)倫理問題12.2.1 數(shù)據(jù)主權和數(shù)據(jù)權問題12.2.2 隱私權和自主權被侵犯問題12.2.3 數(shù)據(jù)利用失衡問題12.3 大模型的知識產(chǎn)權保12.3.1 大模型的訴訟案例12.3.2 大模型生成內(nèi)容的與知識產(chǎn)權保護12.3.3 尊重隱私,保障安全,促進開放12.3.4 邊緣群體的數(shù)字平等12.4 算法歧12.4.1 算法透明之爭12.4.2 算法透明的實踐12.4.3 算法透明的算法說明12.4.4 算法公平的保障措施【作 業(yè)】【實踐與思考】完全由人工智能完成的視覺藝術品無法獲得版權第13章 大模型的評估13.1 模型評估概述13.2 大模型評估體系13.2.1 知識與能力13.2.2 倫理與安全13.2.3 垂直領域評估13.3 大模型評估方法13.3.1 評估指標13.3.2 評估方法13.4 大模型評估實踐13.4.1 基礎模型評估13.4.2 SFT模型和RL模型評估【作 業(yè)】【實踐與思考】第14章 大模型的健康未來14.1 人工智能新發(fā)展14.1.1 人工智能改變自動駕駛未來14.1.2 被重視的人工智能治理政策14.1.3 人工智能音樂的立法實踐14.1.4 防止人工智能誤導民眾14.1.5 生成式人工智能產(chǎn)出的版權14.2 數(shù)據(jù)隱私保護對策14.2.1 構建隱私保護倫理準則14.2.2 注重隱私保護倫理教育14.2.3 健全道德倫理約束機制14.3 人工智能倫理原則14.3.1 職業(yè)倫理準則的目標14.3.2 創(chuàng)新發(fā)展道德倫理宣言14.3.3 微軟六大倫理原則14.3.4 百度四大倫理原則14.3.5 歐盟可信賴的倫理準則14.3.6 美國軍用AI倫理原則14.4 大模型的大趨勢14.5 通用人工智能涌現(xiàn)【作 業(yè)】【課程學習與實踐總結】附錄 作業(yè)參考答案
- >
人文閱讀與收藏·良友文學叢書:一天的工作
- >
伊索寓言-世界文學名著典藏-全譯本
- >
苦雨齋序跋文-周作人自編集
- >
月亮與六便士
- >
有舍有得是人生
- >
大紅狗在馬戲團-大紅狗克里弗-助人
- >
李白與唐代文化
- >
我從未如此眷戀人間