国产视频www-国产视频xxx-国产视频xxxx-国产视频一二-一本大道香蕉中文日本不卡高清二区-一本久久精品一区二区

樹人論文網一個專業的學術咨詢網站!!!
樹人論文網

無監督學習的多語言神經機器翻譯模型

來源: 樹人論文網發表時間:2021-12-03
簡要:摘要:神經機器翻譯(NMT)已經在很多翻譯任務上獲得了顯著的提升效果,但它需要大規模的平行語料庫作為支撐,而高質量的平行語料庫往往很難獲取。針對這一問題,提出了一個多語言無監督

  摘要:神經機器翻譯(NMT)已經在很多翻譯任務上獲得了顯著的提升效果,但它需要大規模的平行語料庫作為支撐,而高質量的平行語料庫往往很難獲取。針對這一問題,提出了一個多語言無監督 NMT 模型,該模型使用一個共享編碼器和多個解碼器聯合訓練多種語言。實驗結果表明,多語言無監督 NMT 模型方法比雙語無監督 NMT 基線模型表現更好,在 WMT 測試集上,BLEU 值最大提高了 1.48%,并且此模型還可實現對訓練過程中不可見語言對之間的翻譯。

無監督學習的多語言神經機器翻譯模型

  文麗穎, 電子設計工程 發表時間:2021-10-20

  關鍵詞:神經機器翻譯;無監督;多語言;跨語言詞嵌入

  近年來,機器翻譯技術取得了令人矚目的成就,尤 其 是 神 經 機 器 翻 譯 (Neural Machine Translation, NMT)極大程度地提升了機器翻譯的譯文質量,這種變革式的發展使得神經機器翻譯成為機器翻譯的新范式[1] 。然而,神經機器翻譯(NMT)系統依賴大規模的適用于訓練此類系統的平行語料庫數據,如果沒有或缺乏平行語料庫,則會經常出現訓練質量不佳的情況,甚至不能進行正確的翻譯[2] 。文獻[3-4]提出了不需要任何類型平行語料庫的 NMT 系統,通過使用單語語料庫在源語言和目標語言之間進行跨語言嵌入和迭代反向翻譯;從架構的角度來看,這些方法結合了一個編碼器和一個或兩個解碼器。文獻[5]提出在有監督的 NMT 系統中聯合訓練多種語言,該系統成功地提高了神經機器翻譯性能。受文獻[3-5]的啟發,文中提出一種多語言無監督神經機器翻譯方法,該方法通過訓練多語言無監督 NMT 模型,可實現一個源到多個目標和多個目標到一個源的翻譯。實驗結果表明,該模型可以改善雙語無監督 NMT 模型,并且該模型無需對網絡進行多對多翻譯訓練,網絡就可以在參與訓練的所有語言之間進行翻譯。

  1 模型構建

  文中基于編碼器-解碼器框架構建多語言無監督 NMT 模型[6] ,該模型使用一個共享編碼器和多個解碼器聯合訓練多種語言,即通過對每種語言的降噪自動編碼以及英語和多種非英語語言之間的反向翻譯,產生了一個可以將參與訓練的任何語言編碼成一種語言間表示的通用編碼器,以及多個特定語言的解碼器。

  1.1 雙向門控循環單元

  循 環 神 經 網 絡 (Recurrent Neural Network,RNN) 的誕生為了更好地處理具有序列特性的數據,但該網絡當前時刻的隱藏狀態由該時刻的輸入和上一時刻隱藏層的值共同決定,這就會帶來梯度爆炸 和 梯 度 消 失 的 問 題 。 長 短 期 記 憶 (Long Short Term Memory,LSTM)網 絡 可 以 解 決 RNN 帶 來 的 問題,還可以從語料中學習到長期依賴關系。LSTM 神經網絡模型通過引入門函數來去除或增強信息到達單元狀態的能力,門函數包括遺忘門、輸入門和輸出門。

  門控循環單元(Gated Recurrent Units,GRU)神經網絡模型與 LSTM 非常相似,但相比于 LSTM,GRU 網絡模型只有更新門和重置門兩個門函數。GRU 網絡模型更新門的作用與 LSTM 網絡模型的遺忘門和輸入門作用大致相同,更新門的作用在于通過設置參數值的大小決定當前狀態有多少狀態信息來自于前一時刻;重置門的作用也是通過設置參數值的大小決定前一時刻有多少狀態信息可以遺忘或忽略。與 LSTM 網絡模型相比,由于 GRU 網絡模型只有兩個門函數,少了一個門函數,因此 GRU 網絡模型參數更少,訓練速度更快。圖 1 所示為 GRU 內部結構圖[7] 。圖1 GRU內

  t 時刻輸入為 xt ,GRU 的隱藏層輸出為 ht ,其計算過程為: zt = σ(W ) (z) xt + U(z) ht - 1 (1) γt = σ(W ) (γ) xt + U(γ) ht - 1 (2) h′ t = tanh(Wxt + γt ⊙Uht - 1) (3)ht = zt ⊙ht - 1 + (1 - zt)⊙h′ t (4)其中,W 為連接兩層的權重矩陣,σ 和 tanh 為激活函數,z、γ 分別為更新門和重置門。

  文中的共享編碼器和解碼器使用雙向 GRU 神經網絡模型。如圖 2 所示,網絡包含左右兩個序列上下文的兩個子網絡,分別是前向和后向傳遞。

  雙向 GRU 神經網絡的輸出計算過程為: ht = [ ] hl ⊕ hl (5)文中使用基于元素的和來組合正向和反向的輸出。

  1.2 雙語無監督NMT基線模型

  雙語無監督 NMT 模型架構有一個共享編碼器和兩個語言特定的解碼器,并通過以下兩個步驟以無監督方式訓練 NMT系統。

  1)降噪自動編碼。降噪自動編碼就是把某種語言的句子加一些噪聲(隨機交換一些詞的順序等),然后用共享編碼器編碼加噪聲后的句子,最后用該語言的句子解碼恢復它。通過最大化重構出的概率來訓練共享編碼器和該語言的解碼器。加噪聲的目的是讓解碼器學會分析語言的結構、提取語義特征,學到一個好的語言模型 [8] 。

  2)反向翻譯。反向翻譯是把偽平行語料當作訓練數據來訓練模型的過程。語言 L1 的句子 s1 先用編碼器編碼,然后用 L2 解碼器貪心解碼出 s2 ,這樣就造出了偽平行句對( s1,s2 ),這時只作推斷,不更新模型參數;然后再用共享編碼器編碼 s2 ,用 L1 解碼器解碼出 s1 ,這里通過最大化 P(s1 |s2) 來訓練模型(也就是共享編碼器和 L1 解碼器的參數)[9] 。

  1.3 多語言無監督NMT模型

  文中提出的多語言無監督 NMT 模型首先通過跨語言嵌入映射將多種語言映射到一個共享潛在空間;然后使用共享表示,通過去噪和反向翻譯,在共享編碼器和特定語言解碼器的幫助下,僅使用單語語料庫來訓練 NMT模型。

  根據文獻[10]創建跨語言嵌入,這是一種完全無監督的對齊單語單詞嵌入的方法。首先,學習兩個單語嵌入空間 X 和 Y ;然后,使用對抗性訓練[11] ,學習矩陣 W 將 X 映射到 Y 。訓練一個鑒別器以區分 WX 和 Y,而 W 被訓練成使鑒別器難以判別出是 WX 還是 Y 。通過使用 W,可以學習小型常用詞匯雙語詞典。求解正交普魯克問題(Orthogonal Procrustes Problem,OPP),得到了一個在 X 和 Y 空間之間轉換的新的矩陣 W : W* = arg minW‖WX - Y ‖F = UVT (6) s.t WWT = I,UΣVT = SVD(YXT ) (7)

  以上步驟可以重復多次使用新的 W 來提取新的翻譯對實現,兩種語言之間的新翻譯對是通過使用跨域相似度局部縮放(Cross- domain Similarity Local Scaling,CSLS)產生的。CSLS 距離定義如下: CSLS(Wxs ,yt) = 2 cos(Wxs ,yt) - rT (Wxs) - rS(yt)(8)其中,rT (Wxs) = 1 K y ∑t ∈ NT (Wxs ) cos(Wxs ,yt) 表示在目標語言中與 Wxs 最相鄰的 K 個詞匯的平均余弦距離, NT (Wxs )表示Wxs 的 K 近鄰距離;rS(yt) 含義類似。

  對于 n 種語言,選擇一種語言 L1 作為錨點,將其他 n - 1 種語言映射到嵌入空間中。為此,首先為每種語言訓練單語詞嵌入;然后,逐個將 n - 1 種語言的嵌入映射到 L1 的嵌入空間中。文中實驗考慮了 4 種語言,即英語、法語、西班牙語和德語,通過保持英語嵌入固定,為法語、西班牙語和德語創建了 3 種跨語言嵌入。

  3 所示為多語言無監督 NMT 模型結構,共享編碼器和每種語言的解碼器是兩層雙向 GRU[12] ;在訓練的每次迭代中,對 n 種語言 L1,L2,…,Ln 進行降噪自編碼;如虛線箭頭所示,將每個 Li 反向翻譯為 L1 ;如實線箭頭所示,從 L1 反向翻譯到每個 Li ,其中 i ∈{2,3,…,n} 。實驗設置了 4 種語言,L1 是英語。在降噪自動編碼步驟中,一種語言中的句子被一些隨機的單詞隨機打亂,并訓練解碼器以預測原始句子。在反向翻譯步驟中,要針對源到目標的方向訓練系統,首先使用推理模式系統(使用共享編碼器和源語言解碼器)將目標句子翻譯成源句子,以生成偽源-目標平行語句,然后使用該偽平行語句按照源到目標的方向訓練網絡。對于從目標到源的訓練過程類似于以上方法。

  2 數據集和實驗設置

  2.1 數據集

  文中使用來自 WMT 2014 的單語英語、法語和德語新聞語料庫和 WMT 2013 的西班牙語語料庫進行訓練[13] ;其中英語、德語、法語和西班牙語的 tokens 個數分別為 4.955 億、6.226 億、2.243 億和 1.229 億。對于測試集,英語-{法語、德語}使用 newstest2013 和 newstest2014,英語-西班牙語使用 newstest2013[14] 。文中不使用任何平行語料來訓練,也不使用任何開發 集 來 優 化 模 型 ,使 用 Moses 對 語 料 數 據 進 行 Tokenize和 Truecase[15] 。

  2.2 實驗設置

  使 用 向 量 維 度 為 300 的 skip- gram 模 型 調 用 fastText(https: // github.com / facebookresearch/fastText) 訓練單語嵌入;對于其他超參數,設置為 fastText 的默認值[16] 。在獲得每種語言的單語嵌入后,使用跨語 言 嵌 入 映 射 代 碼 MUSE(https://github.com/ facebookresearch/MUSE)將每種非英語的嵌入映射到英語的嵌入空間中[17] ,對于映射不使用雙語數據。基于雙語無監督 NMT 模型,使用 PyTorch 框架實現了所提出的多語言無監督 NMT 模型架構;編碼器和解碼器是兩層雙向 GRU,將句子的最大長度設置為 50 個 tokens。對于模型訓練,設置嵌入維數為 300,隱藏維數為 600,詞匯量大小為 50 000,Adam 優化器學習率設置為 0.000 2[18] 。由于文中不使用任何開發集,所以對雙語無監督 NMT 模型和多語言無監督 NMT 模型都進行 20 萬次迭代,保持批處理大小為 50 個句子,并對最終結果用 BLUE 值進行評估[19] 。

  3 實驗結果與分析

  作為對比試驗,按照文獻[3]提出的方法,把為英語?{法語、德語和西班牙語}訓練的雙語無監督NMT模型作為基線模型。如表 1和表 2所示,給出了雙語和多語言無監督 NMT 模型每個翻譯方向的 BLEU 值,所提出的多語言無監督 NMT 模型在兩個測試集的所有翻譯方向上均優于雙語無監督 NMT 模 型 ,其 中 西 班 牙 語 到 英 語 BLEU 值 最 大 改 進 為 1.48%。由于參數僅在編碼器端共享,并且每個目標語言使用一個單獨的解碼器,因此,多語言訓練在不失去其自身語言特征的情況下提高了所有語言對的性能。

  在訓練期間,只在英語和非英語(西班牙語、法語、德語)語言之間進行反向翻譯,但網絡也學會了在非英語語言對之間進行翻譯。例如,為了將西班牙語翻譯成法語,文中對西班牙語句子進行編碼,編碼器的編碼輸出由法語解編碼器解碼。為了進行評估,文中將 newstest2013測試集用于西班牙語-法語、西班牙語-德語和法語-德語語言對。表3給出了在訓練中不可見語言對之間的翻譯結果,可以看出,法語和西班牙語之間的翻譯 BLUE 值分別高達 13.87%和 13.92%;涉及德語的語言對 BLUE 值最高為 7.40%。

  4 結 論

  文中提出了一個多語言無監督 NMT 模型,使用共享編碼器和特定語言解碼器聯合訓練多種語言。提出的方法基于所有語言的降噪自動編碼以及英語和非英語語言之間的反向翻譯。根據實驗結果顯示,多語言無監督 NMT 模型在所有翻譯方向上較雙語無監督 NMT 基線模型都有了明顯的改進,最大改進 BLEU 值為 1.48%。由于提出的網絡中共享編碼器能夠生成與語言無關的表示,所以網絡也學會了在不可見的語言對之間進行翻譯。

主站蜘蛛池模板: 二区三区在线观看 | 超清波多野结衣精品一区 | 国产精品久久做爰 | 在线看亚洲 | 亚洲欧美日韩国产专区一区 | 国产在线高清不卡免费播放 | 成年午夜一级毛片视频 | 美女被男人桶到嗷嗷叫爽网站 | 国产只有精品 | 欧美在线一级毛片观看 | 日韩欧美亚洲每的更新在线 | 亚洲视频网站在线观看 | 美女张开腿给人网站 | 成人免费视频一区 | 一色屋成人免费精品网 | 国产毛片久久久久久国产毛片 | 黄色美女网站免费看 | 欧美日韩ay在线观看 | 一区二区三区四区在线视频 | 99久久99久久久99精品齐 | 美女黄色免费在线观看 | www.黄色com| 日韩在线视频免费不卡一区 | 在线不卡一区二区三区日韩 | 欧美精品一区二区三区免费播放 | 国产真实自拍 | 国产成人精品免费视频软件 | 亚洲综合色吧 | 欧美日韩综合高清一区二区 | 996久久国产精品线观看 | 国产欧美亚洲精品一区 | 亚洲成人国产精品 | 一级特黄特黄的大片免费 | 黄色a三级三级三级免费看 黄色a网 | 99精品视频免费观看 | 91精品久久久久含羞草 | 精品午夜国产在线观看不卡 | 精品国产中文一级毛片在线看 | 理论视频在线观看 | 100000免费啪啪18免进 | 亚洲视频在线一区二区 |