統計機器翻譯的問題,透過圖書和論文來找解法和答案更準確安心。 我們挖掘到下列精選懶人包

統計機器翻譯的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦肖桐,朱靖波寫的 Google翻譯實作:機器翻譯NLP基礎及模型親手打造 和(意)托馬索•泰奧菲利的 深度學習搜尋引擎開發:Java實現都 可以從中找到所需的評價。

這兩本書分別來自深智數位 和人民郵電所出版 。

輔仁大學 電機工程學系碩士班 劉惠英所指導 陳韋霖的 基於自注意力機制的機器翻譯模型設計與醫療翻譯語料庫建置 (2020),提出統計機器翻譯關鍵因素是什麼,來自於機器翻譯、自然語言處理、醫療語料。

而第二篇論文淡江大學 資訊工程學系碩士班 洪文斌所指導 劉軒宏的 基於深度學習GPT-2語言模型之中國古詩與對聯生成系統 (2020),提出因為有 自然語言處理、GPT-2的重點而找出了 統計機器翻譯的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了統計機器翻譯,大家也想知道這些:

Google翻譯實作:機器翻譯NLP基礎及模型親手打造

為了解決統計機器翻譯的問題,作者肖桐,朱靖波 這樣論述:

★☆★☆★【全中文自然語言處理】★☆★☆★ 有了多拉A夢翻譯年糕誰還要找翻譯社?人人都可以當口譯哥! 旅遊網紅用手機環遊世界溝通無礙!   當Google翻譯像空氣一樣自然的存在時,我們仿佛忘了機器翻譯走了幾百年,篳路藍縷有多麼的艱辛。身為使用者在享受這些科技的成果時,技術人員則更好奇些神奇應用底層的科學是如何發展出來的。熟悉史丹佛CS224n NLP課程的人,一定對大師Chris Manning對機器翻譯的重點十分讚嘆。本書就是堪比大師NLP和機器翻譯的真正鉅作。從機器翻譯的歷史、數學原理、理論細節、實作理論、參考資源、最新發展、從最細節到最宏觀的高度都放入書中。NLP是AI上皇冠上

的一個明珠,機器翻譯更是最能展現NLP技術的極緻精華。從事NLP的技術人員、資料科學家、神經網路演算法科學家,如果想要真正進入NLP的世界,本書將會是20年來最重要,最完整、最能精進技術的一個重要提升。   本書技術重點   ✪理性主義及資料主義   ✪統計語言建議   ✪詞法/語法分析,以機率圖/分類器模型   ✪科學方法評估翻譯品質   ✪以詞、扭曲度/繁衍度、短語、句法模型的翻譯方法   ✪Google大殺器:神經機器翻譯建模   ✪循環神經網路模型/注意力機制,卷積神經網路模型   ✪Transformer,自注意力機制   ✪神經網路翻譯模型訓練/推論/結構最佳化   ✪小型裝置上

的神經網路機器翻譯   ✪多模態/多層次機器翻譯   ✪當代機器翻譯的應用及佈署 本書特色   ◎機器翻譯簡介   說明了從理性主義一直進入到資料主義的過程。接下來說明統計語言建模的基礎,進一步進入詞法語法分析的原理,其中並穿插了翻譯品質的評鑑標準。      ◎統計機器翻譯   介紹了以詞、扭曲度、繁衍度、短語、句法為基礎的機器翻譯原理及實作。   ◎近代機器翻譯的新世代 – 神經機器翻譯   介紹了神經網路及神經語言的建模、循環神經網路模型、卷積神經網路模型及自注意力機制的模型。   ◎神經翻譯系統的細節   包括模型訓練及最佳化,模型的推論,更有針對神經網路系統的結構精進,以及使

用低資源的神經網路(如資料蒸餾),以及多模態、多層次的機器翻譯,也介紹了新一代神經網路的應用及發展。  

基於自注意力機制的機器翻譯模型設計與醫療翻譯語料庫建置

為了解決統計機器翻譯的問題,作者陳韋霖 這樣論述:

機器翻譯是自然語言處理中相當困難的任務之一。為了提升翻譯模型的表現,並且不採用堆疊大量的圖形處理器 (Graphics Processing Unit,GPU) 來進行運算,本論文設計一個新模型,稱為Re-Transformer。相較於原始的Transformer,此模型將有以下的改進:第一,修改編碼器 (Encoder) 的架構,採用連續兩層的自注意力機制 (Self-Attention Mechanism),並且減少point wise feed forward 層的使用,讓翻譯模型能夠在編碼階段更清楚的了解語意,以提升解碼器 (Decoder) 的匹配程度。第二,透過修改解碼器的層數,

減少模型參數,藉此降低模型大小,同時保持原始的BLEU (Bilingual Evaluation Understudy) 分數,並且透過實驗證明過多的解碼器不僅會影響模型翻譯表現,也增加了模型的推理時間。Re-Transformer在WMT 2014的英-德和英-法語料庫中,所獲得的BLEU分數最高分別為32.14和55.62,相較於原始的Transformer模型皆有大幅的提升。另外,近年人們對於智能醫療的需求逐步提升,跨國醫療已經是相當尋常的情況,溝通已經是一個必須要盡快被解決的問題,因此我們蒐集了大量網路上的醫療情境資料,建立一個應用於醫療翻譯的英-中語料庫,並利用本論文所設計的模型R

e-Transformer-n進行訓練,所獲得的BLEU分數為55.21;使用相同語料與參數設定下,Transformer僅能獲得36.29的BLEU分數。再次顯示Re-Transformer的優異表現,未來我們也將繼續提升語料庫的數量,以及語料庫內翻譯資料的正確性。

深度學習搜尋引擎開發:Java實現

為了解決統計機器翻譯的問題,作者(意)托馬索•泰奧菲利 這樣論述:

本書是市面上少見的將搜索與深度學習相結合的書,討論了使用(深度)神經網路來説明建立有效的搜尋引擎的方法。閱讀本書無須具備開發搜尋引擎的背景,也不需要具備有關機器學習或深度學習的預備知識,因為本書將介紹所有相關的基礎知識和實用技巧。   書中研究了搜尋引擎的幾個組成部分,不僅針對它們的工作方式提供了一些見解,還為在不同環境中使用神經網路提供了指導。   讀完本書,你將深入理解搜尋引擎面臨的主要挑戰、這些挑戰的常見解決方法以及深度學習所能提供的幫助。你將清晰地理解幾種深度學習技術以及它們在搜索環境中的適用範圍,並深入瞭解Lucene和Deeplearning4j庫。書中示例代碼用Java編寫。

托馬索·泰奧菲利(Tommaso Teofili) Red Hat公司高級軟體工程師,曾擔任Adobe公司軟體工程師,對開源和人工智慧充滿熱情。他是Apache軟體基金會的成員,參與了許多專案,涉及資訊檢索、自然語言處理和分散式運算等主題。 第一部分 當搜索遇上深度學習 第1章 神經搜索 2 1.1 神經網路及深度學習 3 1.2 什麼是機器學習 5 1.3 深度學習能為搜索做什麼 7 1.4 學習深度學習的路線圖 9 1.5 檢索有用的資訊 10 1.5.1 文本、詞素、詞項和搜索基礎 11 1.5.2 相關性優先 18 1.5.3 經典檢索模型 19

1.5.4 精確率與召回率 20 1.6 未解決的問題 20 1.7 打開搜尋引擎的黑盒子 21 1.8 利用深度學習解決問題 22 1.9 索引與神經元 26 1.10 神經網路訓練 26 1.11 神經搜索的前景 28 1.12 總結 29 第2章 生成同義詞 30 2.1 同義詞擴展介紹 31 2.1.1 為什麼要使用同義詞 32 2.1.2 基於詞彙表的同義詞匹配 33 2.2 語境的重要性 42 2.3 前饋神經網路 43 2.3.1 前饋神經網路如何工作:權重和啟動函數 44 2.3.2 簡述反向傳播 45 2.4 使用word2vec 46 2.4.1 在Deeplearning

4j中設置word2vec 53 2.4.2 基於word2vec的同義詞擴展 54 2.5 評價和比較 57 2.6 用於生產系統時的考慮 58 2.7 總結 61 第二部分 將神經網路用於搜尋引擎 第3章 從純檢索到文本生成 64 3.1 資訊需求與查詢:彌補差距 65 3.1.1 生成可選查詢 65 3.1.2 數據準備 67 3.1.3 生成資料的小結 73 3.2 學習序列 73 3.3 迴圈神經網路 75 3.3.1 迴圈神經網路內部結構和動態 77 3.3.2 長期依賴 80 3.3.3 LSTM網路 81 3.4 用於無監督文本生成的LSTM網路 81 3.5 從無監督文本生

成到監督文本生成 92 3.6 生產系統的考慮因素 95 3.7 總結 96 第4章 更靈敏的查詢建議 97 4.1 生成查詢建議 98 4.1.1 編寫查詢時的建議 98 4.1.2 基於字典的建議演算法 99 4.2 Lucene Lookup API 99 4.3 分析後的建議演算法 102 4.4 使用語言模型 108 4.5 基於內容的建議演算法 111 4.6 神經語言模型 112 4.7 基於字元的神經語言建議模型 114 4.8 調優LSTM 語言模型 117 4.9 使用詞嵌入使建議多樣化 125 4.10 總結 127 第5章 用詞嵌入對搜索結果排序 128 5.1 排序的

重要性 128 5.2 檢索模型 130 5.2.1 TF-IDF與向量空間模型 132 5.2.2 在Lucene中對文檔進行排序 134 5.2.3 概率模型 137 5.3 神經資訊檢索 138 5.4 從單詞到文檔向量 139 5.5 評價和比較 144 5.6 總結 149 第6章 用於排序和推薦的文檔嵌入 150 6.1 從詞嵌入到文檔嵌入 150 6.2 在排序中使用段向量 154 6.3 文檔嵌入及相關內容 157 6.3.1 搜索、推薦和相關內容 157 6.3.2 使用高頻詞項查找相似內容 159 6.3.3 使用段向量檢索相似內容 166 6.3.4 從編碼器-解碼器模型

用向量檢索相似內容 169 6.4 總結 170 第三部分 延伸 第7章 跨語言搜索 172 7.1 為講多種語言的使用者提供服務 172 7.1.1 翻譯文檔與查詢 174 7.1.2 跨語言搜索 175 7.1.3 在Lucene上進行多語言查詢 176 7.2 統計機器翻譯 178 7.2.1 對齊 180 7.2.2 基於短語的翻譯 181 7.3 使用並行語料庫 181 7.4 神經機器翻譯 184 7.4.1 編碼器-解碼器模型 184 7.4.2 DL4J中用於機器翻譯的編碼器-解碼器 187 7.5 多語言的單詞和文檔嵌入 194 7.6 總結 199 第8章 基於內容的圖像

搜索 200 8.1 圖像內容和搜索 201 8.2 回顧:基於文本的圖像檢索 203 8.3 理解圖像 204 8.3.1 圖像表示 206 8.3.2 特徵提取 208 8.4 圖像表示的深度學習 215 8.4.1 卷積神經網路 216 8.4.2 圖像搜索 224 8.4.3 局部敏感散列 228 8.5 處理未標記的圖像 231 8.6 總結 235 第9章 性能一瞥 236 9.1 深度學習的性能與約定 237 9.2 索引和神經元協同工作 251 9.3 使用資料流程 254 9.4 總結 259 展望未來 260

基於深度學習GPT-2語言模型之中國古詩與對聯生成系統

為了解決統計機器翻譯的問題,作者劉軒宏 這樣論述:

利用人工智慧技術來創作詩文與對聯是一個非常有趣的事。本研究使用全唐詩及全宋詩當成訓練資料庫,並利用Generative Pre-trained Transformer (GPT-2) 語言模型來建立古詩與對聯生成系統。使用檢測器來檢視篩選符合古詩及對聯規則所生成句子,再結合Jieba及BERT詞向量,讓生成的詩句能夠詞性兩兩相對,使詩的美感能夠更上一層樓。本研究使用了人工評比以及古詩音節評分兩項指標,人工評比又分為流暢度、主題性、意境三項,而實現對照組選用近兩年的三篇古詩生成論文所生成的詩句。研究結果顯示,本研究提出的方法,在流暢度、意境及音節評分都位居第一,而主題性則排名第二,證明了此方法

的有效性。