自然語(yǔ)言處理基礎(chǔ)及應(yīng)用(附微課視頻)(線上實(shí)訓(xùn)版)
定 價(jià):59.8 元
- 作者:李妍 呂慧 周慶國(guó)
- 出版時(shí)間:2025/11/1
- ISBN:9787115671288
- 出 版 社:人民郵電出版社
- 中圖法分類:TP391
- 頁(yè)碼:197
- 紙張:
- 版次:01
- 開(kāi)本:16開(kāi)
1.注重理論結(jié)合應(yīng)用。在深度學(xué)習(xí)、語(yǔ)義表示和基礎(chǔ)算法模塊的寫(xiě)作過(guò)程中,采用問(wèn)題引導(dǎo)式方法引出算法和模型,盡量出現(xiàn)較少的數(shù)學(xué)公式推導(dǎo),配套代碼從頭實(shí)現(xiàn)主要模型,確保代碼的正確性和可復(fù)現(xiàn)性;
2.應(yīng)用部分弱化理論。在實(shí)際應(yīng)用模塊,以實(shí)踐和創(chuàng)新能力培養(yǎng)為主,采用案例為主的寫(xiě)作方式,讓讀者理解實(shí)際應(yīng)用的代碼實(shí)現(xiàn)過(guò)程,提高動(dòng)手能力;
3.低資源語(yǔ)言部分注重語(yǔ)言特點(diǎn)與應(yīng)用結(jié)合。不同語(yǔ)言有著各自的特點(diǎn),本書(shū)以藏語(yǔ)為例,加入了低資源語(yǔ)言的信息處理研究實(shí)例,用實(shí)例說(shuō)明低資源語(yǔ)言的研究特點(diǎn)。
1.注重理論結(jié)合應(yīng)用。在深度學(xué)習(xí)、語(yǔ)義表示和基礎(chǔ)算法模塊的寫(xiě)作過(guò)程中,采用問(wèn)題引導(dǎo)式方法引出算法和模型,盡量出現(xiàn)較少的數(shù)學(xué)公式推導(dǎo),配套代碼從頭實(shí)現(xiàn)主要模型,確保代碼的正確性和可復(fù)現(xiàn)性;
2.應(yīng)用部分弱化理論。在實(shí)際應(yīng)用模塊,以實(shí)踐和創(chuàng)新能力培養(yǎng)為主,采用案例為主的寫(xiě)作方式,讓讀者理解實(shí)際應(yīng)用的代碼實(shí)現(xiàn)過(guò)程,提高動(dòng)手能力;
3.低資源語(yǔ)言部分注重語(yǔ)言特點(diǎn)與應(yīng)用結(jié)合。不同語(yǔ)言有著各自的特點(diǎn),本書(shū)以藏語(yǔ)為例,加入了低資源語(yǔ)言的信息處理研究實(shí)例,用實(shí)例說(shuō)明低資源語(yǔ)言的研究特點(diǎn)。
本書(shū)可作為高校人工智能、計(jì)算機(jī)科學(xué)與技術(shù)、智能科學(xué)與技術(shù)等專業(yè)的教材,也適用于人工智能交叉學(xué)科研究的相關(guān)工作人員參考學(xué)習(xí)。
目 錄
1.1 神奇的自然語(yǔ)言處理 1
1.2 自然語(yǔ)言處理的研究任務(wù) 2
1.2.1 自然語(yǔ)言理解任務(wù) 3
1.2.2 自然語(yǔ)言生成任務(wù) 3
1.3 自然語(yǔ)言處理的發(fā)展歷程 3
1.3.1 基于規(guī)則的自然語(yǔ)言處理 3
1.3.2 基于統(tǒng)計(jì)學(xué)習(xí)的自然語(yǔ)言處理 4
1.3.3 基于深度學(xué)習(xí)的自然語(yǔ)言處理 4
1.4 自然語(yǔ)言處理的挑戰(zhàn) 5
1.5 學(xué)習(xí)建議 6
1.6 本章小結(jié) 6
1.7 習(xí)題 6
2.1 搭建開(kāi)發(fā)環(huán)境 7
2.1.1 為什么選擇Python 8
2.1.2 使用圖形處理單元進(jìn)行訓(xùn)練 8
2.1.3 選擇Linux操作系統(tǒng) 9
2.1.4 Anaconda的下載與安裝 9
2.1.5 Python集成開(kāi)發(fā)環(huán)境PyCharm的安裝 12
2.1.6 安裝CUDA與cuDNN 14
2.2 深度學(xué)習(xí)框架TensorFlow 16
2.2.1 TensorFlow 16
2.2.2 安裝TensorFlow 17
2.3 利用PyTorch進(jìn)行深度學(xué)習(xí) 18
2.3.1 PyTorch 18
2.3.2 安裝PyTorch 19
2.3.3 PyTorch樣例 20
2.4 NumPy使用詳解 21
2.4.1 NumPy常用算法 21
2.4.2 NumPy的常用統(tǒng)計(jì)函數(shù) 23
2.5 實(shí)例:使用PyTorch模塊實(shí)現(xiàn)簡(jiǎn)單線性回歸 25
2.6 本章小結(jié) 26
2.7 習(xí)題 26
3.1 卷積神經(jīng)網(wǎng)絡(luò)概述 27
3.2 卷積神經(jīng)網(wǎng)絡(luò)模型 28
3.2.1 CNN超參數(shù) 30
3.2.2 用于文本分類的CNN 32
3.3 CNN的變體 32
3.3.1 TextCNN模型 32
3.3.2 DPCNN模型 33
3.3.3 IDCNN模型 34
3.4 實(shí)例:使用PyTorch實(shí)現(xiàn)基于TextCNN的電影評(píng)論
情感分析 35
3.4.1 數(shù)據(jù)集 35
3.4.2 代碼實(shí)現(xiàn) 36
3.4.3 文本分類評(píng)價(jià)指標(biāo) 43
3.5 本章小結(jié) 44
3.6 習(xí)題 44
4.1 循環(huán)神經(jīng)網(wǎng)絡(luò)概述 45
4.2 RNN模型 46
4.2.1 SRN 46
4.2.2 RNN的3種模式 47
4.3 基于門(mén)控的RNN 51
4.3.1 LSTM 51
4.3.2 LSTM的各種變體 53
4.3.3 雙向長(zhǎng)短期記憶網(wǎng)絡(luò) 53
4.3.4 GRU 54
4.4 實(shí)例:基于THUCNews新聞標(biāo)題數(shù)據(jù)集的文本
分類 56
4.5 本章小結(jié) 61
4.6 習(xí)題 62
5.1 序列到序列模型 63
5.1.1 編碼器-解碼器結(jié)構(gòu) 64
5.1.2 基于循環(huán)神經(jīng)網(wǎng)絡(luò)的序列到序列模型 65
5.1.3 Seq2Seq模型的實(shí)現(xiàn) 66
5.2 注意力機(jī)制 68
5.2.1 注意力和注意力機(jī)制 68
5.2.2 注意力模型 69
5.2.3 注意力權(quán)重的可視化 70
5.3 Transformer 71
5.3.1 Transformer模型 72
5.3.2 位置編碼 72
5.3.3 自注意力機(jī)制 75
5.3.4 多頭注意力機(jī)制 78
5.4 Transformer模型的變體 79
5.5 本章小結(jié) 79
5.6 習(xí)題 80
6.1 序列標(biāo)注概述 81
6.2 序列標(biāo)注算法和模型 82
6.2.1 基于規(guī)則的序列標(biāo)注算法 82
6.2.2 基于統(tǒng)計(jì)的序列標(biāo)注模型 83
6.2.3 基于深度學(xué)習(xí)的序列標(biāo)注模型 94
6.3 分詞與詞性標(biāo)注實(shí)戰(zhàn) 95
6.3.1 語(yǔ)料庫(kù)與標(biāo)注集 95
6.3.2 實(shí)例:基于人民日?qǐng)?bào)標(biāo)注語(yǔ)料庫(kù)的分詞及詞性
標(biāo)注 97
6.4 實(shí)例:基于人民日?qǐng)?bào)標(biāo)注語(yǔ)料庫(kù)的命名實(shí)體
識(shí)別 102
6.5 本章小結(jié) 107
6.6 習(xí)題 107
7.1 文本的表示 108
7.1.1 詞的獨(dú)熱表示 108
7.1.2 詞的分布式表示 109
7.1.3 詞嵌入表示 110
7.2 語(yǔ)言模型 110
7.2.1 N-gram模型 111
7.2.2 N-gram模型的定義 111
7.2.3 語(yǔ)言模型評(píng)價(jià)指標(biāo) 112
7.3 詞向量模型 113
7.3.1 神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型 113
7.3.2 C&W模型 115
7.3.3 CBOW模型和Skip-gram模型 116
7.3.4 GloVe模型 118
7.3.5 訓(xùn)練詞向量 119
7.3.6 評(píng)價(jià)方法 122
7.4 向量化模型 125
7.4.1 PV-DM模型 125
7.4.2 PV-DBOW模型 126
7.5 實(shí)例:將網(wǎng)頁(yè)文本向量化 126
7.5.1 詞向量的訓(xùn)練 127
7.5.2 計(jì)算網(wǎng)頁(yè)相似度 129
7.6 本章小結(jié) 132
7.7 習(xí)題 132
8.1 機(jī)器翻譯的發(fā)展 133
8.2 機(jī)器翻譯的分類 134
8.3 統(tǒng)計(jì)機(jī)器翻譯 136
8.4 神經(jīng)機(jī)器翻譯 139
8.4.1 數(shù)據(jù)集 139
8.4.2 基于RNN的英譯中機(jī)器翻譯實(shí)戰(zhàn) 140
8.4.3 基于Transformer模型的中譯英機(jī)器翻譯
實(shí)戰(zhàn) 145
8.5 機(jī)器翻譯評(píng)價(jià) 150
8.5.1 人工評(píng)價(jià)方法 150
8.5.2 自動(dòng)評(píng)價(jià)方法 150
8.6 本章小結(jié) 151
8.7 習(xí)題 152
9.1 預(yù)訓(xùn)練語(yǔ)言模型概述 153
9.1.1 預(yù)訓(xùn)練起源 153
9.1.2 預(yù)訓(xùn)練語(yǔ)言模型的發(fā)展史 154
9.1.3 預(yù)訓(xùn)練語(yǔ)言模型的分類 156
9.2 GPT模型 157
9.2.1 GPT模型概述 157
9.2.2 GPT模型結(jié)構(gòu) 157
9.3 BERT模型 160
9.3.1 整體結(jié)構(gòu) 161
9.3.2 輸入表示 161
9.3.3 基本預(yù)訓(xùn)練任務(wù) 167
9.3.4 更多預(yù)訓(xùn)練任務(wù) 171
9.4 BERT模型的變體 171
9.4.1 ALBERT模型 171
9.4.2 RoBERTa模型 172
9.5 其他預(yù)訓(xùn)練模型 172
9.5.1 T5模型 172
9.5.2 XLNet模型 173
9.5.3 BART模型 173
9.6 本章小結(jié) 174
9.7 習(xí)題 174
10.1 情感分析實(shí)戰(zhàn) 175
10.1.1 數(shù)據(jù)集 176
10.1.2 數(shù)據(jù)預(yù)處理 176
10.1.3 代碼實(shí)現(xiàn) 177
10.1.4 文本分類評(píng)價(jià)指標(biāo) 181
10.1.5 實(shí)戰(zhàn)結(jié)果 182
10.2 文本摘要抽取實(shí)戰(zhàn) 182
10.2.1 數(shù)據(jù)集 183
10.2.2 數(shù)據(jù)預(yù)處理 184
10.2.3 代碼實(shí)現(xiàn) 185
10.2.4 文本摘要抽取評(píng)價(jià)指標(biāo) 186
10.2.5 實(shí)戰(zhàn)結(jié)果 187
10.3 本章小結(jié) 187
10.4 習(xí)題 188
11.1 初識(shí)生成式人工智能 189
11.2 大模型的發(fā)展歷程 191
11.3 大模型的變革與挑戰(zhàn) 192
11.4 國(guó)產(chǎn)常用大模型 194
11.5 國(guó)產(chǎn)大模型應(yīng)用舉例——利用文心一言輔助編程 195
11.6 本章小結(jié) 197
11.7 習(xí)題 197
參考文獻(xiàn) 198