類似推薦
編輯推薦
全方位、多角度地展示大模型本地化實戰(zhàn)的完整方案。
內(nèi)容簡介
本書作為《PyTorch 2.0深度學習從零開始學》的姊妹篇,專注于大模型的本地化部署、應用開發(fā)以及微調(diào)等。
本書不僅系統(tǒng)地闡述了深度學習大模型的核心理論,更注重實踐應用,通過豐富的案例和場景,引導讀者從理論走向?qū)嵺`,真正領悟和掌握大模型本地化應用的精髓。
本書適合大模型的初學者、有一定基礎的大模型研究人員、大模型應用開發(fā)人員。同時,本書還可作為高等院?;蚋呗毟邔O嚓P專業(yè)大模型課程的教材,助力培養(yǎng)新一代的大模型領域人才。
作者簡介
作者王曉華,計算機專業(yè)講師,長期講授面向?qū)ο蟪绦蛟O計、數(shù)據(jù)結(jié)構(gòu)、Hadoop程序設計等研究生和本科生相關課程;主要研究方向為云計算、數(shù)據(jù)挖掘。曾主持和參與多項國家和省級科研課題,獨立科研項目獲省級成果認定,發(fā)表過多篇論文,擁有一項專利。著有《Spark MLlib機器學習實踐》《TensorFlow深度學習應用實踐》《OpenCV TensorFlow深度學習與計算機視覺實戰(zhàn)》等圖書。
章節(jié)目錄
版權(quán)信息
作者簡介
內(nèi)容簡介
前言
第1章 大模型時代的開端
1.1 大模型的歷史與發(fā)展
1.1.1 大模型的“涌現(xiàn)”
1.1.2 深度學習與大模型的起源
1.1.3 大模型的概念與特點
1.1.4 大模型開啟了深度學習的新時代
1.2 為什么要使用大模型
1.2.1 大模型與普通模型的區(qū)別
1.2.2 為什么選擇ChatGLM
1.2.3 大模型應用場合與發(fā)展趨勢
1.3 本章小結(jié)
第2章 PyTorch 2.0深度學習環(huán)境搭建
2.1 安裝Python開發(fā)環(huán)境
2.1.1 Miniconda的下載與安裝
2.1.2 PyCharm的下載與安裝
2.1.3 softmax函數(shù)練習
2.2 安裝PyTorch 2.0
2.2.1 NVIDIA 10/20/30/40系列顯卡選擇的GPU版本
2.2.2 PyTorch 2.0 GPU NVIDIA運行庫的安裝
2.2.3 Hello PyTorch
2.3 Hello ChatGLM3
2.3.1 ChatGLM3簡介與安裝
2.3.2 CPU版本的ChatGLM3推演
2.3.3 GPU(INT4或INT8量化)版本的ChatGLM3推演
2.3.4 GPU(half或float量化)版本的ChatGLM3推演
2.3.5 離線狀態(tài)的ChatGLM3的使用
2.3.6 ChatGLM的高級使用
2.4 本章小結(jié)
第3章 基于gradio的云上自托管ChatGLM3部署實戰(zhàn)
3.1 gradio的基本使用詳解
3.1.1 從gradio的Interface開始
3.1.2 gradio輸入與輸出組件
3.1.3 啟動gradio的launch
3.1.4 gradio中多樣化的輸入和輸出組件
3.1.5 gradio中常用的幾個組件
3.1.6 使用gradio搭建視頻上色服務
3.2 基于gradio的貓狗分類可視化訓練與預測實戰(zhàn)
3.2.1 運行環(huán)境與數(shù)據(jù)集的準備
3.2.2 模型的設計
3.2.3 PyTorch模型訓練的基本流程
3.2.4 可視化訓練流程
3.2.5 使用訓練好的模型完成gradio可視化圖像分類
3.3 基于網(wǎng)頁端的ChatGLM3部署和使用
3.3.1 使用gradio搭建ChatGLM3網(wǎng)頁客戶端
3.3.2 使用ChatGLM3自帶的網(wǎng)頁客戶端
3.4 基于私有云服務的ChatGLM3部署和使用
3.4.1 使用FastAPI完成ChatGLM3私有云交互端口的搭建(重要)
3.4.2 基于streamlit的ChatGLM3自帶的網(wǎng)頁客戶端
3.5 本章小結(jié)
第4章 使用ChatGLM3與LangChain實現(xiàn)知識圖譜抽取和智能問答
4.1 當ChatGLM3遇見LangChain
4.1.1 LangChain的基本構(gòu)成、組件與典型場景
4.1.2 確認統(tǒng)一地址的ChatGLM3部署方案
4.1.3 使用ChatGLM3構(gòu)建LangChain的LLM終端
4.1.4 從一個簡單的提示模板開始
4.1.5 ChatGLM3格式化提示詞的構(gòu)建與使用
4.2 ChatGLM3+ LangChain搭建專業(yè)問答機器人
4.2.1 使用LangChain的LLM終端完成文本問答
4.2.2 數(shù)據(jù)準備與基礎算法分析
4.2.3 使用LangChain完成提示語Prompt工程
4.2.4 基于ChatGLM3的LLM終端完成專業(yè)問答
4.3 使用ChatGLM3的LLM終端搭建知識圖譜抽取與智能問答
4.3.1 基于ChatGLM3的LLM終端完成知識圖譜抽取
4.3.2 基于ChatGLM3的LLM終端完成智能問答
4.4 本章小結(jié)
第5章 適配ChatGLM3終端的Template與Chain詳解
5.1 基于輸入模板的人機交互
5.1.1 提示模板的4種類型
5.1.2 可嵌套的提示模板
5.2 Template中示例的最佳選擇
5.2.1 基于長度的輸出示例
5.2.2 基于相似度的輸出示例
5.3 使用Chain提高ChatGLM3的能力
5.3.1 Chain的數(shù)學計算方法
5.3.2 多次驗證檢查器
5.4 LangChain中的記憶功能
5.4.1 ConversationChain會話鏈的使用
5.4.2 系統(tǒng)memory的使用
5.5 基于ChatGLM3終端撰寫劇情梗概、評論與宣傳文案實戰(zhàn)
5.5.1 對過程進行依次調(diào)用的順序鏈SimpleSequentialChain
5.5.2 對過程進行依次調(diào)用的順序鏈SequentialChain
5.5.3 對順序鏈添加額外參數(shù)的方法
5.6 本章小結(jié)
第6章 ChatGLM3多文本檢索的增強生成實戰(zhàn)
6.1 使用自然語言處理方法對目標進行查找
6.1.1 數(shù)據(jù)集的準備
6.1.2 分別基于BM25與LLM終端進行目標查找的方法
6.1.3 建立工業(yè)級標準化輸出:LLM終端與BM25結(jié)合
6.2 基于LLM終端完成文本內(nèi)容抽取與文本問答
6.2.1 讀取目標內(nèi)容
6.2.2 LangChain對文檔的讀取與分割方法
6.2.3 基于LangChain的文本分塊
6.2.4 找到最近似問題的文本段落
6.2.5 使用LLM終端完成智能文本問答
6.3 使用LLM終端完成反向問題推斷
6.3.1 文本問題提取實戰(zhàn)
6.3.2 存儲提取后的內(nèi)容
6.4 本章小結(jié)
第7章 構(gòu)建以人為本的ChatGLM3規(guī)范化Prompt提示工程
7.1 提示工程模板構(gòu)建的輸入與輸出格式
7.1.1 提示模板的輸入格式
7.1.2 提示模板的輸出格式
7.2 提示工程模板高級用法
7.2.1 提示模板的自定義格式
7.2.2 提示模板的FewShotPromptTemplate格式
7.2.3 部分格式化的提示模板詳解
7.3 結(jié)合提示工程的網(wǎng)頁搜索服務實戰(zhàn)
7.3.1 網(wǎng)頁搜索的API實現(xiàn)
7.3.2 網(wǎng)頁問答提示模板的實現(xiàn)
7.3.3 結(jié)合網(wǎng)頁搜索的LLM終端問答實戰(zhàn)
7.4 本章小結(jié)
第8章 使用ChatGLM3的思維鏈構(gòu)建
8.1 思維鏈初探
8.1.1 思維鏈源于人類使用自然語言的概念來理解事物
8.1.2 思維鏈的優(yōu)勢與應用場景
8.2 思維鏈詳解及其實戰(zhàn)
8.2.1 思維鏈詳解
8.2.2 基于ChatGLM3的思維鏈實戰(zhàn)
8.3 本章小結(jié)
第9章 GLM源碼分析與文本生成實戰(zhàn)
9.1 GLM組件詳解
9.1.1 GLM模型架構(gòu)重大突破:旋轉(zhuǎn)位置編碼
9.1.2 添加旋轉(zhuǎn)位置編碼的注意力機制
9.1.3 新型的激活函數(shù)GLU詳解
9.1.4 GLM“三角掩碼”與“錯位”輸入輸出格式詳解
9.2 GLM整體架構(gòu)詳解與文本生成實戰(zhàn)
9.2.1 調(diào)整架構(gòu)順序的GLMBlock
9.2.2 自定義GLM模型(單文本生成版)
9.3 本章小結(jié)
第10章 低資源單GPU微調(diào)ChatGLM3實戰(zhàn)
10.1 什么是大模型微調(diào)
10.1.1 大模型微調(diào)的作用
10.1.2 大模型微調(diào)技術有哪些
10.1.3 參數(shù)高效微調(diào)詳解
10.2 ChatGLM3大模型微調(diào)的準備內(nèi)容
10.2.1 從數(shù)據(jù)準備看ChatGLM3微調(diào):有監(jiān)督微調(diào)詳解
10.2.2 從實施看ChatGLM3微調(diào):LoRA詳解
10.2.3 適配ChatGLM3微調(diào)的輔助庫:PEFT詳解
10.3 虛擬客服多輪問答實戰(zhàn)
10.3.1 ChatGLM3數(shù)據(jù)輸入結(jié)構(gòu)和處理函數(shù)
10.3.2 ChatGLM3微調(diào)訓練
10.3.3 ChatGLM3微調(diào)推理
10.4 加速的秘密:accelerate訓練方法與模型量化詳解
10.4.1 加速器accelerate詳解與完整代碼編寫
10.4.2 加速的秘密1:大模型的量化技術
10.4.3 加速的秘密2:大模型的INT8量化方案
10.4.4 加速的秘密3:大模型ChatGLM3中的量化源碼分析與實踐
10.5 更快的量化訓練方案:QLoRA基礎內(nèi)容詳解
10.5.1 加速的秘密4:基于bitsandbytes的ChatGLM3量化QLoRA實現(xiàn)
10.5.2 加速的秘密5:QLoRA詳解
10.5.3 微調(diào)的目的:讓生成的結(jié)果更聚焦于任務
10.6 QLoRA微調(diào)文本生成實戰(zhàn)
10.6.1 數(shù)據(jù)處理
10.6.2 損失函數(shù)設計
10.6.3 基于QLoRA的ChatGLM3文本生成微調(diào)實戰(zhàn)
10.6.4 基于QLoRA的ChatGLM3文本生成
10.7 本章小結(jié)
第11章 會使用工具的ChatGLM3
11.1 ChatGLM3調(diào)用工具源碼詳解與實戰(zhàn)
11.1.1 Python調(diào)用工具詳解
11.1.2 ChatGLM3工具調(diào)用流程詳解
11.1.3 大模型ChatGLM3工具調(diào)用實戰(zhàn)詳解
11.1.4 大模型ChatGLM3工具調(diào)用原理詳解
11.1.5 ChatGLM3消息傳遞方式詳解
11.2 ChatGLM3官方工具注冊與調(diào)用源碼分析與實戰(zhàn)
11.2.1 Python中的裝飾器與回調(diào)函數(shù)
11.2.2 ChatGLM3官方工具函數(shù)的注冊源碼分析詳解
11.2.3 大模型ChatGLM3官方工具調(diào)用的判定依據(jù)詳解
11.2.4 ChatGLM3官方工具函數(shù)的調(diào)用分析詳解
11.2.5 ChatGLM3調(diào)用工具分析與實戰(zhàn)演示
11.3 ChatGLM3實戰(zhàn):構(gòu)建個人助理之美妝助手
11.3.1 背景和參考資料設定
11.3.2 美妝助手的使用實戰(zhàn)
11.4 本章小結(jié)
第12章 上市公司財務報表非結(jié)構(gòu)化信息抽取實戰(zhàn)
12.1 超長文本處理功能的ChatGLM3與真實財務報表的處理
12.1.1 ChatGLM3-6B-32K模型的獲取與緩存
12.1.2 超大規(guī)模的2020—2023年真實中國股票市場年度財務報表數(shù)據(jù)庫的建立
12.2 單報表非結(jié)構(gòu)化信息抽取實戰(zhàn)
12.2.1 單報表數(shù)據(jù)探查與提取信息結(jié)構(gòu)化處理
12.2.2 單報表數(shù)據(jù)非結(jié)構(gòu)化信息抽取的實現(xiàn)
12.3 本章小結(jié)
第13章 上市公司財務報表智能問答與財務預警實戰(zhàn)
13.1 基于ChatGLM3的非結(jié)構(gòu)化數(shù)據(jù)抽取與大規(guī)模財務報表數(shù)據(jù)庫的建立
13.1.1 逐行代碼講解使用ChatGLM3對關鍵數(shù)據(jù)進行抽取
13.1.2 大規(guī)模上市公司財務報表目標字段抽取函數(shù)的建立
13.1.3 大規(guī)模上市公司財務報表目標字段數(shù)據(jù)庫的建立
13.2 基于自然語言的上市公司財務報表智能問答與財務預警實戰(zhàn)
13.2.1 使用自然語言結(jié)合ChatGLM3實現(xiàn)上市公司財務報表智能問答與預警解決方案1
13.2.2 使用自然語言結(jié)合ChatGLM3-6B實現(xiàn)上市公司財務報表智能問答與預警解決方案2
13.2.3 使用自然語言結(jié)合ChatGLM3實現(xiàn)上市公司財務報表智能問答與預警解決方案3
13.3 本章小結(jié)
附錄 大模型的“幻覺”
ChatGLM3大模型本地化部署、應用開發(fā)與微調(diào)是2024年由清華大學出版社出版,作者王曉華。
溫馨提示:
得書感謝您對《ChatGLM3大模型本地化部署、應用開發(fā)與微調(diào)》關注和支持,如本書內(nèi)容有不良信息或侵權(quán)等情形的,請聯(lián)系本網(wǎng)站。