本書旨在帶領讀者全面掌握將Llama應用于多模態(tài)智能體、編程助手及私有化部署等場景的相關知識。全書共分三篇,內(nèi)容由淺到深、層層遞進。
基礎篇(第1章~第3章)概覽大模型技術,聚焦Transformer 顯卡開發(fā)環(huán)境與自然語言處理任務
深入分析開源大模型的推理與訓練。核心篇(第4章~第8章)探討提示工程技術與應用,介紹如何基于Lama3打造SWE-Agent編程助手,詳細闡述實現(xiàn)Lama3私有化落地應用的初級與進階RAG,以及專用知識站與問答系統(tǒng)的構建。擴展篇(第9章~第10章)探索Llama3手機與邊緣計算的部署,介紹Llama3的高級功能。本書是一部集理論與實踐于一體的技術寶典,適合人工智能領域的開發(fā)者及對大模型感興趣的讀者閱讀。
·覆蓋Llama 3應用場景:包含多模態(tài)智能體、編程助手、私有化部署等前沿技術。
·實戰(zhàn)案例豐富:提供大量案例分析和項目實踐,助力快速上手。
·掌握大模型核心技巧:深入剖析提示工程、RAG技術,輕松應對復雜NLP任務。
·探索前沿部署領域:探索了Llama 3在移動端與邊緣計算領域的部署價值與廣闊前景,深入剖析了模型的功能,如世界模型的理念與多模態(tài)大模型的開發(fā)技巧。
劉 欣 東南大學工程博士在讀,研究方向為大模型和類腦計算。多年來專注于Llama及Qwen等大模型的開發(fā)與應用,對開源大模型的設計與特性有著深刻的認識,擅長多模態(tài)智能體大模型的構建與落地。實戰(zhàn)經(jīng)驗豐富,編寫的多個優(yōu)秀大模型系統(tǒng)已應用于實際項目,同時撰寫了大量有關大模型的技術文章,相關研究成果在NEUROCOMPUTING 等國際知名期刊上發(fā)表;钴S于大模型開源社區(qū),是RWKV、Wenda、ShareAl、Fay、Linly-Talker等多個社區(qū)型開源項目的核心成員。
基 礎 篇
第 1 章 大模型技術概覽 3
11 從機器學習到多模態(tài)智能體大模型 3
111 機器學習 3
112 大模型 5
113 多模態(tài)智能體大模型 7
12 動手搭建一個神經(jīng)網(wǎng)絡 9
121 PyTorch CUDA 顯卡開發(fā)環(huán)境搭建 9
122 卷積神經(jīng)網(wǎng)絡與循環(huán)神經(jīng)網(wǎng)絡 14
123 一個典型的手寫數(shù)字識別 CNN 15
13 注意力機制的學習訓練 19
131 卷積神經(jīng)網(wǎng)絡中的注意力機制 20
132 循環(huán)神經(jīng)網(wǎng)絡中的注意力機制 22
133 Transformer 網(wǎng)絡結構介紹 24
第 2 章 Transformer 顯卡開發(fā)環(huán)境與 NLP 任務 29
21 Transformer 顯卡開發(fā)環(huán)境搭建 29
22 BERT 系列模型執(zhí)行 NLP 任務 31
221 BERT 模型網(wǎng)絡結構 31
222 BERT 變體模型 33
223 BERT 模型處理自然語言處理任務 35
23 GPT 模型與早期多模態(tài) ViT 模型 41
231 GPT 網(wǎng)絡結構 41
232 ViT 網(wǎng)絡結構 44
第 3 章 開源大模型的推理與訓練 49
31 魔搭社區(qū)與復雜環(huán)境搭建 49
32 從零開始訓練一個 GPT-2 小模型 51
321 數(shù)據(jù)的整理與清洗 51
322 GPT-2 小模型訓練 55
323 GPT-2 小模型對話測試 58
33 全量微調(diào)訓練與增量微調(diào)訓練 61
34 Llama 3 與 Llama 4 63
35 Alpaca 指令式數(shù)據(jù)集 64
36 Llama 3 及其量化模型的部署 65
361 Llama 3 常規(guī)模型部署 65
362 Llama 3 量化模型部署 68
37 LoRA、P-Tuning、SFT、DPO、PPO 等各種增量微調(diào)技術 74
38 基于 PEFT 庫使用 LoRA 對 Llama 3 進行微調(diào) 76
核 心 篇
第 4 章 提示工程技術與應用 83
41 提示工程的思維鏈與策略技巧 83
42 Llama 3 利用提示工程策略完成自然語言處理任務 87
43 構建多角色的 GPT 應用:Llama 3 的提示工程實踐 89
44 多任務提示系統(tǒng)的構建與智能體工具鏈集成 91
45 意圖識別與 Agent Tool Calling 95
46 LMStudio Llama 3 實現(xiàn)多輪歷史對話與長文本對話 101
第 5 章 基于 Llama 3 打造 SWE-Agent 編程助手 107
51 Llama 3 SWE-Agent 的框架結構 107
52 數(shù)據(jù)集的準備、清洗與指令 Token 化 109
53 Code-Llama 3-Instruct 底座模型的微調(diào)開發(fā) 110
54 智能體的規(guī)劃、決策、搜索、項目管理與編碼 115
55 Llama 3 SWE-Agent 的前端與應用部署 120
第 6 章 Llama 3 私有化落地應用之初級 RAG 125
61 私有化大模型的巨大潛力 125
62 在落地場景中比較微調(diào)與 RAG 126
63 M3E、E5、Tao8k 等第 一代向量編碼模型 127
64 知識庫中的向量編碼庫與向量數(shù)據(jù)庫 129
65 ChatPDF 案例與單篇文檔對話 132
第 7 章 Llama 3 私有化落地應用之進階 RAG 137
71 BGE、BCE、ACGE 等第二代向量編碼模型 137
72 多渠道檢索數(shù)據(jù)來源 139
73 精準指令向量化 143
74 Zpoint、GTE、Xiaobu 等第三代向量編碼模型 145
75 Clinical-Llama 3 的 Lora 微調(diào) 148
76 Clinical-Llama 3 的向量化重排 152
第 8 章 基于 Llama 3 打造專用知識站與問答系統(tǒng) 155
81 Python 自動化處理文檔的方法 155
82 使用 LangChain 構建關鍵工作鏈 158
83 構建問答系統(tǒng)的全棧架構 161
831 架設后端服務 161
832 實現(xiàn)前端界面 164
擴 展 篇
第 9 章 Llama 3 手機與邊緣計算部署 171
91 端側大模型的價值與前景 171
92 再探 llamacpp 172
93 Maid 與 MLC-Chat 分析 173
94 算力板的選配 175
95 llamacpp Android 工程 179
第 10 章 Llama 3 的高級功能 183
101 世界模型與多模態(tài)大模型 183
102 Llama 3 與視覺大模型聯(lián)動開發(fā)多模態(tài)對話平臺 185
103 Llama 3 與語音大模型聯(lián)動制作數(shù)字世界的分身 188
104 Llama 3 與繪圖大模型聯(lián)動進行 AI 圖片設計 192
105 星河滾燙,你就是理想具身智能 AGI 194
后記 196