金寶書局網路書店

 
目前位置:首頁 > 產品一般分類 > 全中文自然語言處理:Pre-Trained Model方法最新實戰
產品一般分類 > 全中文自然語言處理:Pre-Trained Model方法最新實戰
全中文自然語言處理:Pre-Trained Model方法最新實戰
全中文自然語言處理:Pre-Trained Model方法最新實戰
作者: 車萬翔
出版社深智數位
出版日期:2022-03-18
語言:中文
ISBN:9789860776942
裝訂:平裝
定價880
購買數量:
內容簡介
目錄書摘
導讀/序
作者介紹
★★★★★【全中文自然語言處理】★★★★★

還在對huggingface上的預訓練模型(bert-base)等都是針對歐美語系感到困擾嗎?
本書就是為中文世界讀者專屬打造的,讓你一窺中文模型的自然語言處理!

自然語言處理(NLP)號稱「人工智慧皇冠上的珍珠」,是AI世界中最先進也是應用最廣的領域。從早期的知識模型,到中間的統計模型,一直到最新的神經網路模型,早已服務於你所看到的任何大型系統,包括Google的關鍵字排名、Google翻譯、購物網站推薦系統、Siri/OK Google等,都是NLP產出的精華。如果你還以為CNN、GAN等圖型處理的AI架構很有趣,換到NLP領域中,你會發現更多驚奇!

本書從預訓練模型的角度對理性主義和經驗主義這兩次重要的發展進行了系統性的論述,能夠幫助讀者深入了解這些技術背後的原理、相互之間的聯繫以及潛在的局限性,對於當前學術界和工業界的相關研究與應用都具有重要的價值。本書由中文自然語言處理的首席單位「哈爾濱工業大學」完成,其在Huggningface的Transformer模型上有貢獻多個純中文模型,由這些專家親著的內容,絕對是你想了解中文NLP專業的第一選擇。

本書技術重點
?詞的獨熱表示、詞的分散式表示、文字的詞袋表示
?文字分類問題、結構預測問題、序列到序列問題
?NLTK 工具集、LTP 工具集、大規模預訓練資料
?多層感知器模型、卷積神經網路、循環神經網路、注意力模型
?情感分類實戰、詞性標注實戰
?Word2vec 詞向量、GloVe 詞向量
?靜態詞向量預訓練模型、動態詞向量預訓練模型
?預訓練語言模型、GPT、BERT
?模型蒸餾與壓縮、DistilBERT、TinyBERT、MobileBERT、TextBrewer
?生成模型、BART、UniLM、T5、GPT-3、可控文字生成
?多語言融合、多媒體融合、異質知識融合
?VideoBERT、VL-BERT、DALL·E、ALIGN

本書特色

◎不只英文,還有中文模型的自然語言處理
以往的自然語言處理專書多以處理歐美語系為主,令使用中文為母語的我們甚感遺憾,如今,本書就是你第一本可深入了解「中文模型的自然