為你解答斯坦福大學(xué)NLP組開放神經(jīng)機(jī)器翻譯代碼庫
0. 部分留意(預(yù)測(cè))、concatenate、dropout:
vocab.20K.en:
2. 全局留意、點(diǎn)積、dropout:
2. Model 2:
4. 全局留意、雙線性方式、dropout:
vocab.2K.cs:
newstest2026.en:
newstest2024.de:
4. 部分留意(預(yù)測(cè))、點(diǎn)積、dropout:
vocab.60K.en ()
對(duì)于剪枝NMT(pruning NMT),請(qǐng)引用以下論文(假設(shè)你對(duì)代碼有興味,請(qǐng)聯(lián)絡(luò)咱們):
詞匯庫(最常見的6萬個(gè)詞):
訓(xùn)練集(蘊(yùn)含2680萬個(gè)句子對(duì))
tst2024.en:
vocab.20K.en:
2. Model 2 :
vocab.vi:
咱們放出了預(yù)訓(xùn)練好的模型,可能間接經(jīng)過咱們的Matlab代碼利用。
預(yù)訓(xùn)練的模型
newstest2026.cs:
詞匯庫(最常見的詞):
Hieu Pham
IWSLT'26英文-越南語基于留意的模型(attention-based models)
對(duì)于混合NMT(hybrid NMT),請(qǐng)利用這個(gè)代碼庫并且引用:
8. 部分留意(預(yù)測(cè))、雙線性方式:
vocab.2K.en:
對(duì)于通用的基于留意的NMT(general attention-based NMT),請(qǐng)引用以下論文:
越南語訓(xùn)練集(train.vi):
newstest2026.de:
4. 部分留意(枯燥)、雙線性方式:
摘要:幾乎之前一切的神經(jīng)機(jī)器翻譯(NMT)利用的詞匯都受限,隨后能夠用一個(gè)方法來修補(bǔ)未知的單詞。本論文展示了一個(gè)全新的能完成開放詞匯神經(jīng)機(jī)器翻譯(open vocabulary NMT)的詞-字符處理方法。咱們建設(shè)了一個(gè)混合的系統(tǒng),可以完成大局部的詞級(jí)(word level)翻譯,并可查閱稀有詞的字母組成。咱們字符級(jí)的循環(huán)神經(jīng)網(wǎng)絡(luò)能計(jì)算源詞的表征,并能在需求時(shí)恢復(fù)未知的指標(biāo)詞。這種混合的方法還有一個(gè)雙重優(yōu)點(diǎn)是,與基于字符的網(wǎng)絡(luò)相比,它更快且更容易訓(xùn)練;同時(shí),它不像基于詞的模型那樣會(huì)產(chǎn)生未知的詞。在WMT' 26英文-捷克語的翻譯義務(wù)上,這種混合方法還完成了一個(gè)額外的+ 2.2 BLEU分的降職——超過已經(jīng)能解決未知單詞的模型22.4 BLEU分。咱們的最佳系統(tǒng)在這個(gè)義務(wù)上達(dá)到了新的最佳體現(xiàn):20.8 BLEU分。咱們證實(shí)了咱們的字符模型不只能勝利地學(xué)習(xí)生成方式很好的捷克語詞(這是一種詞匯簡單高度屈折的言語),還能為英文源詞建設(shè)了正確的表征。
vocab.20K.cs:
vocab.en:
vocab.60K.cs:
訓(xùn)練集(蘊(yùn)含460萬個(gè)句子對(duì))
測(cè)試集:
newstest2024.cs:
訓(xùn)練集(蘊(yùn)含24.4萬個(gè)句子對(duì))
vocab.char.200.cs ()
代碼庫:https://github字符串/lmthang/nmt.hybrid
newstest2024.en: