亚洲系列一区中文字幕,亚洲成a人片在线不卡一二三区,亚洲av午夜福利精品一区人妖,亚洲中文字幕在线,亚洲精品无码mv在线观看

AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型

AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型

查閱電子書
手機(jī)掃碼
  • 微信掃一掃

    關(guān)注微信公眾號

因版權(quán)原因待上架

編輯推薦

一本書講透AIGC技術(shù)原理。

內(nèi)容簡介

本書旨在幫助沒有任何人工智能技術(shù)基礎(chǔ)的工程師們?nèi)嬲莆誂IGC的底層技術(shù)原理,以及大語言模型、擴(kuò)散模型和多模態(tài)模型的原理與實踐。

作者簡介

作者吳茂貴,資深BI和大數(shù)據(jù)專家,在BI、數(shù)據(jù)挖掘與分析、數(shù)據(jù)倉庫、機(jī)器學(xué)習(xí)等領(lǐng)域有超過20年的工作經(jīng)驗,在Spark機(jī)器學(xué)習(xí)、TensorFlow深度學(xué)習(xí)領(lǐng)域有大量的實踐經(jīng)驗。

章節(jié)目錄

版權(quán)信息

PREFACE 前言

CHAPTER 1 第1章 AIGC概述

1.1 AIGC的主要技術(shù)

1.1.1 語言生成方面的技術(shù)

1.1.2 視覺生成方面的技術(shù)

1.1.3 多模態(tài)方面的技術(shù)

1.2 生成模型與判別模型

1.2.1 生成模型

1.2.2 判別模型

1.3 生成模型的原理

1.3.1 生成模型的框架

1.3.2 生成模型的概率表示

1.3.3 生成模型的目標(biāo)函數(shù)

1.3.4 生成模型的挑戰(zhàn)及解決方法

1.4 表示學(xué)習(xí)

1.4.1 表示學(xué)習(xí)的直觀理解

1.4.2 表示學(xué)習(xí)的常用方式

1.4.3 表示學(xué)習(xí)與特征工程的區(qū)別

1.4.4 圖像的表示學(xué)習(xí)

1.4.5 文本的表示學(xué)習(xí)

1.4.6 多模態(tài)的表示學(xué)習(xí)

1.4.7 表示學(xué)習(xí)的融合技術(shù)

1.4.8 如何衡量表示學(xué)習(xí)的優(yōu)劣

1.5 表示學(xué)習(xí)的逆過程

CHAPTER 2 第2章 深度神經(jīng)網(wǎng)絡(luò)

2.1 用PyTorch構(gòu)建深度神經(jīng)網(wǎng)絡(luò)

2.1.1 神經(jīng)網(wǎng)絡(luò)的核心組件

2.1.2 構(gòu)建神經(jīng)網(wǎng)絡(luò)的主要工具

2.1.3 構(gòu)建模型

2.1.4 訓(xùn)練模型

2.2 用PyTorch實現(xiàn)神經(jīng)網(wǎng)絡(luò)實例

2.2.1 準(zhǔn)備數(shù)據(jù)

2.2.2 可視化源數(shù)據(jù)

2.2.3 構(gòu)建模型

2.2.4 訓(xùn)練模型

2.3 用PyTorch Lightning實現(xiàn)神經(jīng)網(wǎng)絡(luò)實例

2.4 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)

2.4.1 全連接層

2.4.2 卷積層

2.4.3 卷積核

2.4.4 步幅

2.4.5 填充

2.4.6 多通道上的卷積

2.4.7 激活函數(shù)

2.4.8 卷積函數(shù)

2.4.9 轉(zhuǎn)置卷積

2.4.10 特征圖與感受野

2.4.11 卷積層如何保留圖像的空間信息

2.4.12 現(xiàn)代經(jīng)典網(wǎng)絡(luò)

2.4.13 可變形卷積

2.5 構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)

2.5.1 從神經(jīng)網(wǎng)絡(luò)到有隱含狀態(tài)的循環(huán)神經(jīng)網(wǎng)絡(luò)

2.5.2 使用循環(huán)神經(jīng)網(wǎng)絡(luò)構(gòu)建語言模型

2.5.3 多層循環(huán)神經(jīng)網(wǎng)絡(luò)

2.5.4 現(xiàn)代經(jīng)典循環(huán)神經(jīng)網(wǎng)絡(luò)

2.6 遷移學(xué)習(xí)

2.6.1 遷移學(xué)習(xí)簡介

2.6.2 微調(diào)預(yù)訓(xùn)練模型

2.7 深度學(xué)習(xí)常用的歸一化方法

2.7.1 歸一化方法簡介

2.7.2 歸一化的原理

2.7.3 歸一化的代碼實現(xiàn)

2.8 權(quán)重初始化

2.8.1 為何要進(jìn)行權(quán)重初始化

2.8.2 權(quán)重初始化方法

2.9 PyTorch常用的損失函數(shù)

2.10 深度學(xué)習(xí)常用的優(yōu)化算法

2.10.1 傳統(tǒng)梯度更新算法

2.10.2 批量隨機(jī)梯度下降法

2.10.3 動量算法

2.10.4 Nesterov動量算法

2.10.5 AdaGrad算法

2.10.6 RMSProp算法

2.10.7 Adam算法

2.10.8 各種優(yōu)化算法比較

CHAPTER 3 第3章 變分自編碼器

3.1 自編碼器簡介

3.1.1 構(gòu)建自編碼器

3.1.2 構(gòu)建編碼器

3.1.3 構(gòu)建解碼器

3.1.4 定義損失函數(shù)及優(yōu)化器

3.1.5 分析自編碼器

3.2 變分自編碼器簡介

3.2.1 變分自編碼器的直觀理解

3.2.2 變分自編碼器的原理

3.3 構(gòu)建變分自編碼器

3.3.1 構(gòu)建編碼器

3.3.2 構(gòu)建解碼器

3.3.3 損失函數(shù)

3.3.4 分析變分自編碼器

3.4 使用變分自編碼器生成面部圖像

3.4.1 編碼器

3.4.2 解碼器

3.4.3 進(jìn)一步分析變分自編碼器

3.4.4 生成新頭像

CHAPTER 4 第4章 生成對抗網(wǎng)絡(luò)

4.1 GAN模型簡介

4.1.1 GAN的直觀理解

4.1.2 GAN的原理

4.1.3 GAN的訓(xùn)練過程

4.2 用GAN從零開始生成圖像

4.2.1 判別器

4.2.2 生成器

4.2.3 損失函數(shù)

4.2.4 訓(xùn)練模型

4.2.5 可視化結(jié)果

4.3 GAN面臨的問題

4.3.1 損失振蕩

4.3.2 模型坍塌的簡單實例

4.3.3 GAN模型坍塌的原因

4.3.4 避免GAN模型坍塌的方法

4.4 WGAN

4.4.1 改進(jìn)方向和效果

4.4.2 Wasserstein距離的優(yōu)越性

4.4.3 WGAN的損失函數(shù)代碼

4.4.4 WGAN的其他核心代碼

4.5 WGAN-GP

4.5.1 權(quán)重裁剪的隱患

4.5.2 梯度懲罰損失

4.5.3 WGAN-GP的訓(xùn)練過程

4.5.4 WGAN-GP的損失函數(shù)代碼

CHAPTER 5 第5章 StyleGAN模型

5.1 ProGAN簡介

5.2 StyleGAN架構(gòu)

5.3 StyleGAN的其他算法

5.4 用PyTorch從零開始實現(xiàn)StyleGAN

5.4.1 構(gòu)建生成網(wǎng)絡(luò)

5.4.2 構(gòu)建判別器網(wǎng)絡(luò)

5.4.3 損失函數(shù)

5.5 StyleGAN的最新進(jìn)展

5.5.1 StyleGAN2簡介

5.5.2 StyleGAN3簡介

5.5.3 StyleGAN與DeepDream模型的異同

5.6 DragGAN簡介

CHAPTER 6 第6章 風(fēng)格遷移

6.1 DeepDream模型

6.1.1 DeepDream的原理

6.1.2 DeepDream算法的流程

6.1.3 使用PyTorch實現(xiàn)DeepDream

6.2 普通風(fēng)格遷移

6.2.1 內(nèi)容損失

6.2.2 風(fēng)格損失

6.2.3 使用PyTorch實現(xiàn)神經(jīng)網(wǎng)絡(luò)風(fēng)格遷移

6.3 使用PyTorch實現(xiàn)圖像修復(fù)

6.3.1 網(wǎng)絡(luò)結(jié)構(gòu)

6.3.2 損失函數(shù)

6.3.3 圖像修復(fù)實例

6.4 風(fēng)格遷移與StyleGAN模型

CHAPTER 7 第7章 注意力機(jī)制

7.1 注意力機(jī)制簡介

7.1.1 兩種常見的注意力機(jī)制

7.1.2 來自生活的注意力

7.1.3 注意力機(jī)制的本質(zhì)

7.2 帶注意力機(jī)制的編碼器-解碼器架構(gòu)

7.2.1 引入注意力機(jī)制

7.2.2 計算注意力分配概率分布值

7.3 自注意力

7.3.1 單層自注意力

7.3.2 多層自注意力

7.3.3 多頭自注意力

7.3.4 自注意力與卷積網(wǎng)絡(luò)、循環(huán)網(wǎng)絡(luò)的比較

7.4 如何訓(xùn)練含自注意力的模型

7.4.1 將標(biāo)記向量化

7.4.2 添加位置編碼

7.4.3 逆嵌入過程

7.5 交叉注意力

7.5.1 Transformer解碼器中的交叉注意力

7.5.2 Stable Diffusion解碼器中的交叉注意力

7.5.3 交叉注意力與自注意力的異同

CHAPTER 8 第8章 Transformer模型

8.1 Transformer模型的直觀理解

8.1.1 頂層設(shè)計

8.1.2 嵌入和向量化

8.1.3 位置編碼

8.1.4 自注意力

8.1.5 掩碼

8.1.6 多頭注意力

8.1.7 殘差連接

8.1.8 層歸一化

8.1.9 解碼器的輸出

8.1.10 多層疊加

8.2 用PyTorch從零開始實現(xiàn)Transformer

8.2.1 構(gòu)建編碼器-解碼器架構(gòu)

8.2.2 構(gòu)建編碼器

8.2.3 構(gòu)建解碼器

8.2.4 構(gòu)建多頭注意力

8.2.5 構(gòu)建前饋神經(jīng)網(wǎng)絡(luò)層

8.2.6 預(yù)處理輸入數(shù)據(jù)

8.2.7 構(gòu)建完整網(wǎng)絡(luò)

8.2.8 訓(xùn)練模型

8.2.9 一個簡單實例

CHAPTER 9 第9章 大語言模型

9.1 大語言模型簡介

9.2 可視化GPT原理

9.2.1 GPT簡介

9.2.2 GPT的整體架構(gòu)

9.2.3 GPT模型架構(gòu)

9.2.4 GPT-2與BERT的多頭注意力的區(qū)別

9.2.5 GPT-2的輸入

9.2.6 GPT-2計算遮掩自注意力的詳細(xì)過程

9.2.7 GPT-2的輸出

9.2.8 GPT-1與GPT-2的異同

9.3 GPT-3簡介

9.4 可視化BERT原理

9.4.1 BERT的整體架構(gòu)

9.4.2 BERT的輸入

9.4.3 遮掩語言模型

9.4.4 預(yù)測下一個句子

9.4.5 微調(diào)

9.4.6 使用特征提取方法

9.5 用PyTorch實現(xiàn)BERT

9.5.1 BERTEmbedding類的代碼

9.5.2 TransformerBlock類的代碼

9.5.3 構(gòu)建BERT的代碼

9.6 用GPT-2生成文本

9.6.1 下載GPT-2預(yù)訓(xùn)練模型

9.6.2 用貪心搜索進(jìn)行解碼

9.6.3 用束搜索進(jìn)行解碼

9.6.4 用采樣進(jìn)行解碼

9.6.5 用Top-K采樣進(jìn)行解碼

9.6.6 用Top-p采樣進(jìn)行解碼

9.6.7 用綜合方法進(jìn)行解碼

CHAPTER 10 第10章 ChatGPT模型

10.1 ChatGPT簡介

10.1.1 ChatGPT核心技術(shù)

10.1.2 InstructGPT和ChatGPT的訓(xùn)練過程

10.1.3 指令微調(diào)

10.1.4 ChatGPT的不足

10.2 人類反饋強(qiáng)化學(xué)習(xí)

10.2.1 工作原理

10.2.2 工作流程

10.2.3 PPO算法

10.2.4 評估框架

10.2.5 創(chuàng)新與不足

10.3 Codex

10.3.1 對源代碼進(jìn)行預(yù)處理

10.3.2 處理代碼塊

10.3.3 將源代碼數(shù)字化

10.3.4 衡量指標(biāo)

10.3.5 Codex的邏輯推理能力是如何形成的

10.3.6 CodeGeeX的主要功能

10.3.7 CodeGeeX模型架構(gòu)

10.4 如何將LaTeX數(shù)學(xué)公式語言轉(zhuǎn)化為自然語言

10.5 使用PPO算法優(yōu)化車桿游戲

10.5.1 構(gòu)建策略網(wǎng)絡(luò)

10.5.2 構(gòu)建價值網(wǎng)絡(luò)

10.5.3 構(gòu)建PPO模型

10.5.4 定義超參數(shù)

10.5.5 實例化模型

10.5.6 訓(xùn)練模型

10.5.7 可視化迭代

10.6 使用RLHF算法提升GPT-2性能

10.6.1 基于中文情緒識別模型的正向評論生成機(jī)器人

10.6.2 對評論進(jìn)行人工打分

10.6.3 標(biāo)注排序序列替代直接打分

10.7 ChatGPT如何提升思維鏈推斷能力

10.8 ChatGPT如何提升模型的數(shù)學(xué)邏輯推理能力

CHAPTER 11 第11章 擴(kuò)散模型

11.1 擴(kuò)散模型簡介

11.1.1 DDPM

11.1.2 擴(kuò)散概率模型

11.1.3 正向擴(kuò)散過程

11.1.4 反向擴(kuò)散過程

11.1.5 正向擴(kuò)散過程的數(shù)學(xué)細(xì)節(jié)

11.1.6 反向擴(kuò)散過程的數(shù)學(xué)細(xì)節(jié)

11.1.7 訓(xùn)練目標(biāo)和損失函數(shù)

11.2 使用PyTorch從零開始編寫DDPM

11.2.1 定義超參數(shù)

11.2.2 創(chuàng)建數(shù)據(jù)集

11.2.3 創(chuàng)建數(shù)據(jù)加載器

11.2.4 可視化數(shù)據(jù)集

11.2.5 DDPM架構(gòu)

11.2.6 用殘差塊取代雙卷積模塊的優(yōu)勢

11.2.7 創(chuàng)建擴(kuò)散類

11.2.8 正向擴(kuò)散過程

11.2.9 可視化正向擴(kuò)散過程

11.2.10 基于訓(xùn)練算法和采樣算法的訓(xùn)練

11.2.11 從零開始訓(xùn)練DDPM

11.2.12 使用DDPM生成圖像

CHAPTER 12 第12章 多模態(tài)模型

12.1 CLIP簡介

12.1.1 CLIP如何將圖像與圖像描述進(jìn)行對齊

12.1.2 CLIP如何實現(xiàn)零樣本分類

12.1.3 CLIP原理

12.1.4 從零開始運(yùn)行CLIP

12.1.5 CLIP應(yīng)用

12.2 Stable Diffusion模型

12.2.1 Stable Diffusion模型的直觀理解

12.2.2 Stable Diffusion模型的原理

12.3 從零開始實現(xiàn)Stable Diffusion

12.3.1 文生圖

12.3.2 根據(jù)提示詞修改圖

12.4 Stable Diffusion升級版簡介

12.4.1 Stable Diffusion 2.0

12.4.2 Stable Diffusion XL

12.5 DALL·E模型

12.5.1 DALL·E簡介

12.5.2 DALL·E 2簡介

12.5.3 DALL·E 2與GAN的異同

12.5.4 DALL·E 3簡介

CHAPTER 13 第13章 AIGC的數(shù)學(xué)基礎(chǔ)

13.1 矩陣的基本運(yùn)算

13.1.1 矩陣加法

13.1.2 矩陣點積

13.1.3 轉(zhuǎn)置

13.1.4 矩陣的阿達(dá)馬積

13.1.5 行列式

13.2 隨機(jī)變量及其分布

13.2.1 從隨機(jī)事件到隨機(jī)變量

13.2.2 離散型隨機(jī)變量及其分布

13.2.3 連續(xù)型隨機(jī)變量及其分布

13.2.4 隨機(jī)變量的分布函數(shù)

13.2.5 多維隨機(jī)變量及其分布

13.2.6 隨機(jī)變量的數(shù)字特征

13.2.7 隨機(jī)變量函數(shù)的分布

13.3 信息論

13.3.1 信息量

13.3.2 信息熵

13.3.3 條件熵

13.3.4 互信息

13.3.5 KL散度

13.3.6 交叉熵

13.3.7 JS散度

13.3.8 Wasserstein距離

13.3.9 困惑度

13.4 推斷

13.4.1 極大似然估計

13.4.2 極大后驗概率估計

13.4.3 EM算法

13.4.4 變分推斷

13.4.5 馬爾可夫鏈蒙特卡羅隨機(jī)采樣

13.5 強(qiáng)化學(xué)習(xí)

13.5.1 強(qiáng)化學(xué)習(xí)基本概念

13.5.2 強(qiáng)化學(xué)習(xí)基礎(chǔ)算法

13.5.3 策略梯度

AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型是2024年由機(jī)械工業(yè)出版社出版,作者吳茂貴。

溫馨提示:
得書感謝您對《AIGC原理與實踐:零基礎(chǔ)學(xué)大語言模型、擴(kuò)散模型和多模態(tài)模型》關(guān)注和支持,如本書內(nèi)容有不良信息或侵權(quán)等情形的,請聯(lián)系本網(wǎng)站。

你可能喜歡
零基礎(chǔ)商務(wù)工作管理模型全書 電子書
從尋找靈感到建立公司組織框架,在本書中作者都給出了詳細(xì)的解決方案。書中包含5S/SWOT分析/決策矩陣/6W2H/緊急度/重要度矩陣/VRI分析/KPITREE/PDCA/價值鏈分析/Asis/ToBE/帕累托分析等方法,也囊括希望創(chuàng)意不斷閃現(xiàn)的MBA必要知識!無論是職場新人,還是公司管理者,本書都值得一看!我們不斷意識到,大多數(shù)人在日益增長的全球經(jīng)濟(jì)體系中互相依賴且受其影響。世界正在變得越來越數(shù)
全球貿(mào)易分析模型:理論與實踐 電子書
通過對本書的閱讀和學(xué)習(xí),讀者不僅能對GTAP模型的內(nèi)容有詳盡的了解,更能理論結(jié)合實踐,進(jìn)一步加深對可計算一般均衡模型的學(xué)習(xí)。
多水平模型應(yīng)用.高級心理統(tǒng)計學(xué)叢書 電子書
本書從一般回歸模型開始,逐步引入不同種類的多水平模型。除了演示基本的多水平線性、多水平非線性模型外,書中還介紹了國際統(tǒng)計分析領(lǐng)域較為前沿的幾種復(fù)雜模型。
經(jīng)濟(jì)系統(tǒng)模型 電子書
本書包括多個經(jīng)濟(jì)系統(tǒng)模型:含確定壽命和不確定壽命的經(jīng)濟(jì)系統(tǒng)模型、封閉經(jīng)濟(jì)和開放經(jīng)濟(jì)的可計算的一般均衡模型、中國人口與經(jīng)濟(jì)長期預(yù)測模型等。對于模型涉及的儲蓄率內(nèi)生化、壽命不確定下的消費(fèi)決策等問題做了深入研究,提出了有獨創(chuàng)性的見解。用這些模型研究了人口紅利、社會養(yǎng)老保險、碳稅與二氧化碳減排等問題,得出的結(jié)論比較可信。對于中國人口與經(jīng)濟(jì)的長期預(yù)測,提出的模型簡潔但不失全面性,預(yù)測的準(zhǔn)確度較高。

公眾號

關(guān)注微信公眾號