類似推薦
編輯推薦
全面介紹大模型技術(shù)的發(fā)展與應(yīng)用。
內(nèi)容簡介
本書主要介紹了大模型的發(fā)展與演變、相關(guān)技術(shù)、應(yīng)用場景、未來發(fā)展趨勢和前景。本書首先回顧了大模型技術(shù)的起源和發(fā)展歷程,然后介紹了數(shù)據(jù)預(yù)處理、Transformer、預(yù)訓(xùn)練與微調(diào)、模型推理和PyTorch框架等技術(shù)。此外,本書還通過具體的案例和實踐展示了如何應(yīng)用大模型技術(shù)來解決實際問題。
作者簡介
編著者張成文,博士,北京郵電大學副教授、碩士生導(dǎo)師。中國人工智能學會高級會員,任中國電子商會大模型應(yīng)用產(chǎn)業(yè)專委會秘書長、中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟產(chǎn)學研工作組副組長,中國醫(yī)學裝備協(xié)會人工智能和醫(yī)用機器人工作委員會常委、中國教育發(fā)展戰(zhàn)略學會人工智能與機器人專委會理事等。他在網(wǎng)絡(luò)技術(shù)專業(yè)領(lǐng)域有著深入的研究,并且完成了國家科技重大專項、國家重點研發(fā)計劃、國家自然科學基金等項目。專業(yè)方向包括人工智能、大數(shù)據(jù)個性化推薦、云計算、計算機視覺等。
章節(jié)目錄
版權(quán)信息
內(nèi)容提要
推薦語(排名不分先后)
前言
資源與支持
第1章 大模型概述
1.1 大模型介紹
1.2 大模型分類
1.3 大模型的開發(fā)流程
1.4 應(yīng)用場景
1.5 未來發(fā)展方向
1.6 小結(jié)
1.7 課后習題
第2章 數(shù)據(jù)預(yù)處理
2.1 文本數(shù)據(jù)預(yù)處理
2.2 圖像數(shù)據(jù)預(yù)處理
2.3 圖文對數(shù)據(jù)預(yù)處理
2.4 Datasets庫
2.5 小結(jié)
2.6 課后習題
第3章 Transformer
3.1 注意力機制
3.2 Transformer簡介
3.3 Visual Transformer簡介
3.4 Q-Former
3.5 transformers庫
3.6 小結(jié)
3.7 課后習題
第4章 預(yù)訓(xùn)練
4.1 預(yù)訓(xùn)練介紹
4.2 預(yù)訓(xùn)練任務(wù)
4.3 應(yīng)用于下游任務(wù)的方法
4.4 預(yù)訓(xùn)練模型的應(yīng)用
4.5 小結(jié)
4.6 課后習題
第5章 訓(xùn)練優(yōu)化
5.1 模型訓(xùn)練挑戰(zhàn)
5.2 訓(xùn)練優(yōu)化技術(shù)
5.3 訓(xùn)練加速工具
5.4 小結(jié)
5.5 課后習題
第6章 模型微調(diào)
6.1 監(jiān)督微調(diào)
6.2 PEFT技術(shù)
6.3 PEFT庫
6.4 小結(jié)
6.5 課后習題
第7章 模型推理
7.1 模型壓縮和加速技術(shù)
7.2 推理服務(wù)提升技術(shù)
7.3 小結(jié)
7.4 課后習題
第8章 PyTorch框架
8.1 安裝與配置
8.2 基礎(chǔ)組件
8.3 構(gòu)建線性回歸模型
8.4 構(gòu)建Transformer模型
8.5 小結(jié)
8.6 課后習題
第9章 向量數(shù)據(jù)庫
9.1 Milvus
9.2 Pinecone
9.3 Chroma
9.4 小結(jié)
9.5 課后習題
第10章 前端可視化工具
10.1 Gradio
10.2 Streamlit
10.3 小結(jié)
10.4 課后習題
第11章 LangChain
11.1 LangChain組件
11.2 基礎(chǔ)操作
11.3 進階實戰(zhàn)
11.4 基于私域數(shù)據(jù)的問答系統(tǒng)
11.5 小結(jié)
11.6 課后習題
第12章 常用開源模型的部署與微調(diào)
12.1 ChatGLM3模型部署與微調(diào)
12.2 Baichuan2模型部署與微調(diào)
12.3 LLaMA2模型部署與微調(diào)
12.4 小結(jié)
12.5 課后習題
大模型導(dǎo)論是2024年由人民郵電出版社出版,作者張成文 編著。
溫馨提示:
得書感謝您對《大模型導(dǎo)論》關(guān)注和支持,如本書內(nèi)容有不良信息或侵權(quán)等情形的,請聯(lián)系本網(wǎng)站。