包郵 精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型
-
>
全國(guó)計(jì)算機(jī)等級(jí)考試最新真考題庫(kù)模擬考場(chǎng)及詳解·二級(jí)MSOffice高級(jí)應(yīng)用
-
>
決戰(zhàn)行測(cè)5000題(言語(yǔ)理解與表達(dá))
-
>
軟件性能測(cè)試.分析與調(diào)優(yōu)實(shí)踐之路
-
>
第一行代碼Android
-
>
JAVA持續(xù)交付
-
>
EXCEL最強(qiáng)教科書(shū)(完全版)(全彩印刷)
-
>
深度學(xué)習(xí)
精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型 版權(quán)信息
- ISBN:9787576322279
- 條形碼:9787576322279 ; 978-7-5763-2227-9
- 裝幀:一般膠版紙
- 冊(cè)數(shù):暫無(wú)
- 重量:暫無(wú)
- 所屬分類(lèi):>
精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型 本書(shū)特色
ChatGPT紅得發(fā)紫,強(qiáng)得讓人類(lèi)心悸。 但在它的背后,還隱藏著一位真正的大佬。 它的名字叫做——Transformer! 在大數(shù)據(jù)和人工智能時(shí)代,機(jī)器學(xué)習(xí) (Machine Learning,ML) 和 深 度 學(xué) 習(xí) (DeepLeamning,DL) 已經(jīng)成為各行各業(yè)解決問(wèn)題的有效方法,自然語(yǔ)言處理 (Natural Language Processing,NLP) 是深度學(xué)習(xí)的重要應(yīng)用領(lǐng)域之一。在過(guò)去的二十年中,自然語(yǔ)言處理經(jīng)歷了翻天 覆地的變化:從傳統(tǒng)的自然語(yǔ)言處理方法 (n-gram 語(yǔ)言模型、基于TF-IDF 的信息檢索模型、獨(dú)熱編碼文檔術(shù)語(yǔ)矩陣等)到深度學(xué)習(xí)方法 (RNN、CNN、FFNN、LSTM 等),再到Transformer。 目前,基于Transformer 的語(yǔ)言模型主導(dǎo)了自然語(yǔ)言處理領(lǐng)域的研究,已經(jīng)成為一種新的范式。 Transformer模型是谷歌公司于2017年推出的自然語(yǔ)言處理經(jīng)典模型。在自然語(yǔ)言處理任務(wù)中,Transformer 的表現(xiàn)超越了RNN 和 CNN,只需編碼器/解碼器就能達(dá)到很好的效果,并且可以實(shí)現(xiàn) 高效的并行化。 Transformer 社區(qū)提供的大量預(yù)訓(xùn)練模型為自然語(yǔ)言處理的研究和生成部署提供了*前沿的基準(zhǔn)。 本書(shū)涵蓋了Transformer 深度學(xué)習(xí)體系結(jié)構(gòu)的理論知識(shí)和實(shí)踐指南。借助 Hugging Face 社區(qū) 的Transformer 庫(kù),本書(shū)循序漸進(jìn)地提供了各種自然語(yǔ)言處理問(wèn)題的解決方案。本書(shū)采用理論和實(shí) 踐相結(jié)合的方式,系統(tǒng)地闡述了自然語(yǔ)言處理的相關(guān)理論和技術(shù),詳細(xì)介紹了使用Transformer 訓(xùn)練、微調(diào)和部署自然語(yǔ)言處理解決方案的流程。 通過(guò)本書(shū)的學(xué)習(xí),讀者可以利用Transformer 庫(kù)探索*先進(jìn)的自然語(yǔ)言處理解決方案;使用 Transformer體系結(jié)構(gòu)訓(xùn)練任何語(yǔ)言模型;微調(diào)預(yù)訓(xùn)練的語(yǔ)言模型以執(zhí)行多個(gè)下游任務(wù);監(jiān)控訓(xùn)練過(guò) 程、可視化解釋Transformer 內(nèi)部表示以及部署生產(chǎn)環(huán)境。 本書(shū)的讀者對(duì)象主要包括深度學(xué)習(xí)研究人員、自然語(yǔ)言處理從業(yè)人員、教師和學(xué)生。本書(shū)要求讀者具有良好的Python 基礎(chǔ)知識(shí)以及機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的基本知識(shí)。
精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型 內(nèi)容簡(jiǎn)介
AI領(lǐng)域的基石王者,那些還沉迷于CNN,RNN的工程師被警告:放棄戰(zhàn)斗吧,向Transformer投降! 在過(guò)去的二十年中,自然語(yǔ)言處理研究領(lǐng)域發(fā)生了翻天覆地的變化。在這段時(shí)間里,自然語(yǔ) 言處理經(jīng)歷了不同的處理范式,并*終進(jìn)入了一個(gè)由神奇的Transformer體系結(jié)構(gòu)主導(dǎo)的新時(shí)代。 Transformer深度學(xué)習(xí)架構(gòu)是通過(guò)繼承許多方法而產(chǎn)生的,其中包括上下文詞嵌入、多頭注意力機(jī)制、位置編碼、并行體系結(jié)構(gòu)、模型壓縮、遷移學(xué)習(xí)、跨語(yǔ)言模型等。在各種基于神經(jīng)的自然語(yǔ)言處理方法中, Transformer架構(gòu)逐漸演變?yōu)榛谧⒁饬Φ摹熬幋a器-解碼器”體系結(jié)構(gòu),并持續(xù)發(fā)展到今天,F(xiàn)在,我們?cè)谖墨I(xiàn)中看到了這種體系結(jié)構(gòu)的新的成功變體。目前研究已經(jīng)發(fā)現(xiàn)了只使用 Transformer 架構(gòu)中編碼器部分的出色模型,如 BERT(Bidirectional Encoder Representations from Transformers,Transformers雙向編碼表示);或者只使用Transformer架構(gòu) 中解碼器部分的出色模型,如 GPT(Generated Pre -trained Transformer,生成式的預(yù)訓(xùn)練 Transformer)。 本書(shū)涵蓋了這些自然語(yǔ)言處理方法; Hugging Face社區(qū)的Transformer庫(kù),我們能夠輕 松地使用Transformer。 本書(shū)將循序漸進(jìn)地提供各種自然語(yǔ)言處理問(wèn)題的解決方案:從文檔摘要到問(wèn) 題回答系統(tǒng)。我們將看到,基于Transformer, 可以取得*先進(jìn)的成果。
精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型 目錄
精通Transformer:從零開(kāi)始構(gòu)建最先進(jìn)的NLP模型 作者簡(jiǎn)介
本書(shū)由Savas Yldmnm專(zhuān)業(yè)人士編寫(xiě) 薩瓦斯 ·伊爾蒂利姆 (Savas Yldmnm) 畢業(yè)于伊斯坦布爾技術(shù)大學(xué)計(jì)算機(jī)工程系,擁有自然 語(yǔ)言處理 (Natural Language Processing,NLP)專(zhuān)業(yè)的博士學(xué)位。目前,他是土耳其伊斯坦布爾 比爾基大學(xué)的副教授,也是加拿大瑞爾森大學(xué)的訪問(wèn)研究員。他是一位積極熱情的講師和研究員, 具有20多年教授機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和自然語(yǔ)言處理等課程的豐富經(jīng)驗(yàn)。他開(kāi)發(fā)了大量的開(kāi)源軟件 和資源,為土耳其自然語(yǔ)言理解社區(qū)做出了重大貢獻(xiàn)。他還為人工智能公司的研究開(kāi)發(fā)項(xiàng)目提供全 面的咨詢(xún)服務(wù)。
- >
【精裝繪本】畫(huà)給孩子的中國(guó)神話(huà)
- >
企鵝口袋書(shū)系列·偉大的思想20:論自然選擇(英漢雙語(yǔ))
- >
朝聞道
- >
山海經(jīng)
- >
巴金-再思錄
- >
李白與唐代文化
- >
姑媽的寶刀
- >
伯納黛特,你要去哪(2021新版)