類似推薦
編輯推薦
一本書講透AIGC技術(shù)原理。
內(nèi)容簡介
本書旨在幫助沒有任何人工智能技術(shù)基礎(chǔ)的工程師們?nèi)嬲莆誂IGC的底層技術(shù)原理,以及大語言模型、擴(kuò)散模型和多模態(tài)模型的原理與實踐。
作者簡介
作者吳茂貴,資深BI和大數(shù)據(jù)專家,在BI、數(shù)據(jù)挖掘與分析、數(shù)據(jù)倉庫、機(jī)器學(xué)習(xí)等領(lǐng)域有超過20年的工作經(jīng)驗,在Spark機(jī)器學(xué)習(xí)、TensorFlow深度學(xué)習(xí)領(lǐng)域有大量的實踐經(jīng)驗。
章節(jié)目錄
版權(quán)信息
PREFACE 前言
CHAPTER 1 第1章 AIGC概述
1.1 AIGC的主要技術(shù)
1.1.1 語言生成方面的技術(shù)
1.1.2 視覺生成方面的技術(shù)
1.1.3 多模態(tài)方面的技術(shù)
1.2 生成模型與判別模型
1.2.1 生成模型
1.2.2 判別模型
1.3 生成模型的原理
1.3.1 生成模型的框架
1.3.2 生成模型的概率表示
1.3.3 生成模型的目標(biāo)函數(shù)
1.3.4 生成模型的挑戰(zhàn)及解決方法
1.4 表示學(xué)習(xí)
1.4.1 表示學(xué)習(xí)的直觀理解
1.4.2 表示學(xué)習(xí)的常用方式
1.4.3 表示學(xué)習(xí)與特征工程的區(qū)別
1.4.4 圖像的表示學(xué)習(xí)
1.4.5 文本的表示學(xué)習(xí)
1.4.6 多模態(tài)的表示學(xué)習(xí)
1.4.7 表示學(xué)習(xí)的融合技術(shù)
1.4.8 如何衡量表示學(xué)習(xí)的優(yōu)劣
1.5 表示學(xué)習(xí)的逆過程
CHAPTER 2 第2章 深度神經(jīng)網(wǎng)絡(luò)
2.1 用PyTorch構(gòu)建深度神經(jīng)網(wǎng)絡(luò)
2.1.1 神經(jīng)網(wǎng)絡(luò)的核心組件
2.1.2 構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要工具
2.1.3 構(gòu)建模型
2.1.4 訓(xùn)練模型
2.2 用PyTorch實現(xiàn)神經(jīng)網(wǎng)絡(luò)實例
2.2.1 準(zhǔn)備數(shù)據(jù)
2.2.2 可視化源數(shù)據(jù)
2.2.3 構(gòu)建模型
2.2.4 訓(xùn)練模型
2.3 用PyTorch Lightning實現(xiàn)神經(jīng)網(wǎng)絡(luò)實例
2.4 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)
2.4.1 全連接層
2.4.2 卷積層
2.4.3 卷積核
2.4.4 步幅
2.4.5 填充
2.4.6 多通道上的卷積
2.4.7 激活函數(shù)
2.4.8 卷積函數(shù)
2.4.9 轉(zhuǎn)置卷積
2.4.10 特征圖與感受野
2.4.11 卷積層如何保留圖像的空間信息
2.4.12 現(xiàn)代經(jīng)典網(wǎng)絡(luò)
2.4.13 可變形卷積
2.5 構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)
2.5.1 從神經(jīng)網(wǎng)絡(luò)到有隱含狀態(tài)的循環(huán)神經(jīng)網(wǎng)絡(luò)
2.5.2 使用循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)建語言模型
2.5.3 多層循環(huán)神經(jīng)網(wǎng)絡(luò)
2.5.4 現(xiàn)代經(jīng)典循環(huán)神經(jīng)網(wǎng)絡(luò)
2.6 遷移學(xué)習(xí)
2.6.1 遷移學(xué)習(xí)簡介
2.6.2 微調(diào)預(yù)訓(xùn)練模型
2.7 深度學(xué)習(xí)常用的歸一化方法
2.7.1 歸一化方法簡介
2.7.2 歸一化的原理
2.7.3 歸一化的代碼實現(xiàn)
2.8 權(quán)重初始化
2.8.1 為何要進(jìn)行權(quán)重初始化
2.8.2 權(quán)重初始化方法
2.9 PyTorch常用的損失函數(shù)
2.10 深度學(xué)習(xí)常用的優(yōu)化算法
2.10.1 傳統(tǒng)梯度更新算法
2.10.2 批量隨機(jī)梯度下降法
2.10.3 動量算法
2.10.4 Nesterov動量算法
2.10.5 AdaGrad算法
2.10.6 RMSProp算法
2.10.7 Adam算法
2.10.8 各種優(yōu)化算法比較
CHAPTER 3 第3章 變分自編碼器
3.1 自編碼器簡介
3.1.1 構(gòu)建自編碼器
3.1.2 構(gòu)建編碼器
3.1.3 構(gòu)建解碼器
3.1.4 定義損失函數(shù)及優(yōu)化器
3.1.5 分析自編碼器
3.2 變分自編碼器簡介
3.2.1 變分自編碼器的直觀理解
3.2.2 變分自編碼器的原理
3.3 構(gòu)建變分自編碼器
3.3.1 構(gòu)建編碼器
3.3.2 構(gòu)建解碼器
3.3.3 損失函數(shù)
3.3.4 分析變分自編碼器
3.4 使用變分自編碼器生成面部圖像
3.4.1 編碼器
3.4.2 解碼器
3.4.3 進(jìn)一步分析變分自編碼器
3.4.4 生成新頭像
CHAPTER 4 第4章 生成對抗網(wǎng)絡(luò)
4.1 GAN模型簡介
4.1.1 GAN的直觀理解
4.1.2 GAN的原理
4.1.3 GAN的訓(xùn)練過程
4.2 用GAN從零開始生成圖像
4.2.1 判別器
4.2.2 生成器
4.2.3 損失函數(shù)
4.2.4 訓(xùn)練模型
4.2.5 可視化結(jié)果
4.3 GAN面臨的問題
4.3.1 損失振蕩
4.3.2 模型坍塌的簡單實例
4.3.3 GAN模型坍塌的原因
4.3.4 避免GAN模型坍塌的方法
4.4 WGAN
4.4.1 改進(jìn)方向和效果
4.4.2 Wasserstein距離的優(yōu)越性
4.4.3 WGAN的損失函數(shù)代碼
4.4.4 WGAN的其他核心代碼
4.5 WGAN-GP
4.5.1 權(quán)重裁剪的隱患
4.5.2 梯度懲罰損失
4.5.3 WGAN-GP的訓(xùn)練過程
4.5.4 WGAN-GP的損失函數(shù)代碼
CHAPTER 5 第5章 StyleGAN模型
5.1 ProGAN簡介
5.2 StyleGAN架構(gòu)
5.3 StyleGAN的其他算法
5.4 用PyTorch從零開始實現(xiàn)StyleGAN
5.4.1 構(gòu)建生成網(wǎng)絡(luò)
5.4.2 構(gòu)建判別器網(wǎng)絡(luò)
5.4.3 損失函數(shù)
5.5 StyleGAN的最新進(jìn)展
5.5.1 StyleGAN2簡介
5.5.2 StyleGAN3簡介
5.5.3 StyleGAN與DeepDream模型的異同
5.6 DragGAN簡介
CHAPTER 6 第6章 風(fēng)格遷移
6.1 DeepDream模型
6.1.1 DeepDream的原理
6.1.2 DeepDream算法的流程
6.1.3 使用PyTorch實現(xiàn)DeepDream
6.2 普通風(fēng)格遷移
6.2.1 內(nèi)容損失
6.2.2 風(fēng)格損失
6.2.3 使用PyTorch實現(xiàn)神經(jīng)網(wǎng)絡(luò)風(fēng)格遷移
6.3 使用PyTorch實現(xiàn)圖像修復(fù)
6.3.1 網(wǎng)絡(luò)結(jié)構(gòu)
6.3.2 損失函數(shù)
6.3.3 圖像修復(fù)實例
6.4 風(fēng)格遷移與StyleGAN模型
CHAPTER 7 第7章 注意力機(jī)制
7.1 注意力機(jī)制簡介
7.1.1 兩種常見的注意力機(jī)制
7.1.2 來自生活的注意力
7.1.3 注意力機(jī)制的本質(zhì)
7.2 帶注意力機(jī)制的編碼器-解碼器架構(gòu)
7.2.1 引入注意力機(jī)制
7.2.2 計算注意力分配概率分布值
7.3 自注意力
7.3.1 單層自注意力
7.3.2 多層自注意力
7.3.3 多頭自注意力
7.3.4 自注意力與卷積網(wǎng)絡(luò)、循環(huán)網(wǎng)絡(luò)的比較
7.4 如何訓(xùn)練含自注意力的模型
7.4.1 將標(biāo)記向量化
7.4.2 添加位置編碼
7.4.3 逆嵌入過程
7.5 交叉注意力
7.5.1 Transformer解碼器中的交叉注意力
7.5.2 Stable Diffusion解碼器中的交叉注意力
7.5.3 交叉注意力與自注意力的異同
CHAPTER 8 第8章 Transformer模型
8.1 Transformer模型的直觀理解
8.1.1 頂層設(shè)計
8.1.2 嵌入和向量化
8.1.3 位置編碼
8.1.4 自注意力
8.1.5 掩碼
8.1.6 多頭注意力
8.1.7 殘差連接
8.1.8 層歸一化
8.1.9 解碼器的輸出
8.1.10 多層疊加
8.2 用PyTorch從零開始實現(xiàn)Transformer
8.2.1 構(gòu)建編碼器-解碼器架構(gòu)
8.2.2 構(gòu)建編碼器
8.2.3 構(gòu)建解碼器
8.2.4 構(gòu)建多頭注意力
8.2.5 構(gòu)建前饋神經(jīng)網(wǎng)絡(luò)層
8.2.6 預(yù)處理輸入數(shù)據(jù)
8.2.7 構(gòu)建完整網(wǎng)絡(luò)
8.2.8 訓(xùn)練模型
8.2.9 一個簡單實例
CHAPTER 9 第9章 大語言模型
9.1 大語言模型簡介
9.2 可視化GPT原理
9.2.1 GPT簡介
9.2.2 GPT的整體架構(gòu)
9.2.3 GPT模型架構(gòu)
9.2.4 GPT-2與BERT的多頭注意力的區(qū)別
9.2.5 GPT-2的輸入
9.2.6 GPT-2計算遮掩自注意力的詳細(xì)過程
9.2.7 GPT-2的輸出
9.2.8 GPT-1與GPT-2的異同
9.3 GPT-3簡介
9.4 可視化BERT原理
9.4.1 BERT的整體架構(gòu)
9.4.2 BERT的輸入
9.4.3 遮掩語言模型
9.4.4 預(yù)測下一個句子
9.4.5 微調(diào)
9.4.6 使用特征提取方法
9.5 用PyTorch實現(xiàn)BERT
9.5.1 BERTEmbedding類的代碼
9.5.2 TransformerBlock類的代碼
9.5.3 構(gòu)建BERT的代碼
9.6 用GPT-2生成文本
9.6.1 下載GPT-2預(yù)訓(xùn)練模型
9.6.2 用貪心搜索進(jìn)行解碼
9.6.3 用束搜索進(jìn)行解碼
9.6.4 用采樣進(jìn)行解碼
9.6.5 用Top-K采樣進(jìn)行解碼
9.6.6 用Top-p采樣進(jìn)行解碼
9.6.7 用綜合方法進(jìn)行解碼
CHAPTER 10 第10章 ChatGPT模型
10.1 ChatGPT簡介
10.1.1 ChatGPT核心技術(shù)
10.1.2 InstructGPT和ChatGPT的訓(xùn)練過程
10.1.3 指令微調(diào)
10.1.4 ChatGPT的不足
10.2 人類反饋強(qiáng)化學(xué)習(xí)
10.2.1 工作原理
10.2.2 工作流程
10.2.3 PPO算法
10.2.4 評估框架
10.2.5 創(chuàng)新與不足
10.3 Codex
10.3.1 對源代碼進(jìn)行預(yù)處理
10.3.2 處理代碼塊
10.3.3 將源代碼數(shù)字化
10.3.4 衡量指標(biāo)
10.3.5 Codex的邏輯推理能力是如何形成的
10.3.6 CodeGeeX的主要功能
10.3.7 CodeGeeX模型架構(gòu)
10.4 如何將LaTeX數(shù)學(xué)公式語言轉(zhuǎn)化為自然語言
10.5 使用PPO算法優(yōu)化車桿游戲
10.5.1 構(gòu)建策略網(wǎng)絡(luò)
10.5.2 構(gòu)建價值網(wǎng)絡(luò)
10.5.3 構(gòu)建PPO模型
10.5.4 定義超參數(shù)
10.5.5 實例化模型
10.5.6 訓(xùn)練模型
10.5.7 可視化迭代
10.6 使用RLHF算法提升GPT-2性能
10.6.1 基于中文情緒識別模型的正向評論生成機(jī)器人
10.6.2 對評論進(jìn)行人工打分
10.6.3 標(biāo)注排序序列替代直接打分
10.7 ChatGPT如何提升思維鏈推斷能力
10.8 ChatGPT如何提升模型的數(shù)學(xué)邏輯推理能力
CHAPTER 11 第11章 擴(kuò)散模型
11.1 擴(kuò)散模型簡介
11.1.1 DDPM
11.1.2 擴(kuò)散概率模型
11.1.3 正向擴(kuò)散過程
11.1.4 反向擴(kuò)散過程
11.1.5 正向擴(kuò)散過程的數(shù)學(xué)細(xì)節(jié)
11.1.6 反向擴(kuò)散過程的數(shù)學(xué)細(xì)節(jié)
11.1.7 訓(xùn)練目標(biāo)和損失函數(shù)
11.2 使用PyTorch從零開始編寫DDPM
11.2.1 定義超參數(shù)
11.2.2 創(chuàng)建數(shù)據(jù)集
11.2.3 創(chuàng)建數(shù)據(jù)加載器
11.2.4 可視化數(shù)據(jù)集
11.2.5 DDPM架構(gòu)
11.2.6 用殘差塊取代雙卷積模塊的優(yōu)勢
11.2.7 創(chuàng)建擴(kuò)散類
11.2.8 正向擴(kuò)散過程
11.2.9 可視化正向擴(kuò)散過程
11.2.10 基于訓(xùn)練算法和采樣算法的訓(xùn)練
11.2.11 從零開始訓(xùn)練DDPM
11.2.12 使用DDPM生成圖像
CHAPTER 12 第12章 多模態(tài)模型
12.1 CLIP簡介
12.1.1 CLIP如何將圖像與圖像描述進(jìn)行對齊
12.1.2 CLIP如何實現(xiàn)零樣本分類
12.1.3 CLIP原理
12.1.4 從零開始運(yùn)行CLIP
12.1.5 CLIP應(yīng)用
12.2 Stable Diffusion模型
12.2.1 Stable Diffusion模型的直觀理解
12.2.2 Stable Diffusion模型的原理
12.3 從零開始實現(xiàn)Stable Diffusion
12.3.1 文生圖
12.3.2 根據(jù)提示詞修改圖
12.4 Stable Diffusion升級版簡介
12.4.1 Stable Diffusion 2.0
12.4.2 Stable Diffusion XL
12.5 DALL·E模型
12.5.1 DALL·E簡介
12.5.2 DALL·E 2簡介
12.5.3 DALL·E 2與GAN的異同
12.5.4 DALL·E 3簡介
CHAPTER 13 第13章 AIGC的數(shù)學(xué)基礎(chǔ)
13.1 矩陣的基本運(yùn)算
13.1.1 矩陣加法
13.1.2 矩陣點積
13.1.3 轉(zhuǎn)置
13.1.4 矩陣的阿達(dá)馬積
13.1.5 行列式
13.2 隨機(jī)變量及其分布
13.2.1 從隨機(jī)事件到隨機(jī)變量
13.2.2 離散型隨機(jī)變量及其分布
13.2.3 連續(xù)型隨機(jī)變量及其分布
13.2.4 隨機(jī)變量的分布函數(shù)
13.2.5 多維隨機(jī)變量及其分布
13.2.6 隨機(jī)變量的數(shù)字特征
13.2.7 隨機(jī)變量函數(shù)的分布
13.3 信息論
13.3.1 信息量
13.3.2 信息熵
13.3.3 條件熵
13.3.4 互信息
13.3.5 KL散度
13.3.6 交叉熵
13.3.7 JS散度
13.3.8 Wasserstein距離
13.3.9 困惑度
13.4 推斷
13.4.1 極大似然估計
13.4.2 極大后驗概率估計
13.4.3 EM算法
13.4.4 變分推斷
13.4.5 馬爾可夫鏈蒙特卡羅隨機(jī)采樣
13.5 強(qiáng)化學(xué)習(xí)
13.5.1 強(qiáng)化學(xué)習(xí)基本概念
13.5.2 強(qiáng)化學(xué)習(xí)基礎(chǔ)算法
13.5.3 策略梯度
AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型是2024年由機(jī)械工業(yè)出版社出版,作者吳茂貴。
溫馨提示:
得書感謝您對《AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型》關(guān)注和支持,如本書內(nèi)容有不良信息或侵權(quán)等情形的,請聯(lián)系本網(wǎng)站。