本書聚焦谷歌公司開發(fā)的BERT自然語言處理模型,由淺入深地介紹了BERT的工作原理、BERT的各種變體及其應(yīng)用。本書呈現(xiàn)了大量示意圖、代碼和實(shí)例,詳細(xì)解析了如何訓(xùn)練BERT模型、如何使用BERT模型執(zhí)行自然語言推理任務(wù)、文本摘要任務(wù)、問答任務(wù)、命名實(shí)體識(shí)別任務(wù)等各種下游任務(wù),以及如何將BERT模型應(yīng)用于多種語言。通讀本書后,讀者不僅能夠系統(tǒng)了解有關(guān)BERT的各種概念、術(shù)語和原理,還能夠使用BERT模型及其變體執(zhí)行各種自然語言處理任務(wù)。
BERT基礎(chǔ)教程:Transformer大模型實(shí)戰(zhàn)是2023年由人民郵電出版社出版,作者[印]蘇達(dá)哈爾?!だS昌迪蘭(Sudharsan,Ravichandiran)。
溫馨提示:
1.本電子書已獲得正版授權(quán),由出版社通過知傳鏈發(fā)行。
2.該電子書為虛擬物品,付費(fèi)之后概不接收任何理由退款。電子書內(nèi)容僅支持在線閱讀,不支持下載。
3.您在本站購買的閱讀使用權(quán)僅限于您本人閱讀使用,您不得/不能給任何第三方使用,由此造成的一切相關(guān)后果本平臺(tái)保留向您追償索賠的權(quán)利!版權(quán)所有,后果自負(fù)!
得書感謝您對(duì)《BERT基礎(chǔ)教程:Transformer大模型實(shí)戰(zhàn)》關(guān)注和支持,如本書內(nèi)容有不良信息或侵權(quán)等情形的,請(qǐng)聯(lián)系本網(wǎng)站。