文章內(nèi)容

聊一聊深度學(xué)習(xí)在統(tǒng)計機(jī)器翻譯和會話中的運(yùn)用

時間:2018-05-30 19:53來源:網(wǎng)絡(luò)整理 作者:珠海翻譯公司 點(diǎn)擊:

l  針對詞匯能夠性

l  翻譯模型

深度學(xué)習(xí)在統(tǒng)計機(jī)器翻譯和會話中的運(yùn)用 |微軟IJCAI2026演講PPT

深度學(xué)習(xí)在統(tǒng)計機(jī)器翻譯和會話中的運(yùn)用 |微軟IJCAI2026演講PPT

它類似的想法于[Devlin+24]。

l  對數(shù)線性模型

編碼器:雙向RNN編碼每一個單詞和文本

l  詞語n-gram模型(如n=4)

深度學(xué)習(xí)在統(tǒng)計機(jī)器翻譯和會話中的運(yùn)用 |微軟IJCAI2026演講PPT

l  計算語義相似性btw文本

N-gram言語模型

無理論上,韓語翻譯,RNN可能將一切過去輸入的信息“貯存”在h中,但在事實(shí)中規(guī)范的RNN無奈捕獲長距離的依賴。處理反向流傳中梯度隱沒和爆炸和不鞏固噪音成績的方法是:長的短期記憶。

建設(shè)一個單一、大型的神經(jīng)網(wǎng)絡(luò)用來讀取句子并輸出翻譯

翻譯

NMT在WMT義務(wù)上超過了最好的結(jié)果

這一局部次要引見了深度神經(jīng)網(wǎng)絡(luò)對于成績停止分類的實(shí)例,以及在統(tǒng)計機(jī)器翻譯和對話中深度學(xué)習(xí)的運(yùn)用,對于語義表達(dá)學(xué)習(xí)和人造言語的理解也有所提及。

錄制

l  ITG模型

l  短語翻譯分?jǐn)?shù)=矢量點(diǎn)積

深度學(xué)習(xí)在統(tǒng)計機(jī)器翻譯和會話中的運(yùn)用 |微軟IJCAI2026演講PPT

微軟鉆研院在IJCAI2026的Tutorial上講述了本人將深度學(xué)習(xí)、深度神經(jīng)網(wǎng)絡(luò)運(yùn)用于不同場景的情況,之前第一局部提到了其運(yùn)用于語義理解上的一些閱歷和播種,本文為第二局部。

將MT當(dāng)成廣泛的序列到序列的翻譯,瀏覽源頭;累積隱形狀;生成指標(biāo)。其中<EOS>是中止遞歸過程的符號。在練習(xí)中,反向瀏覽源句子會導(dǎo)致更好的MT結(jié)果。在文本中停止訓(xùn)練,并利用SGD優(yōu)化指標(biāo)能夠性。