論文の概要: Revisiting the Markov Property for Machine Translation
- arxiv url: http://arxiv.org/abs/2402.02084v1
- Date: Sat, 3 Feb 2024 08:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 22:15:08.286253
- Title: Revisiting the Markov Property for Machine Translation
- Title(参考訳): 機械翻訳におけるマルコフ特性の再検討
- Authors: Cunxiao Du, Hao Zhou, Zhaopeng Tu, Jing Jiang
- Abstract要約: 我々は,Markov Autoregressive Transformer(MAT)を設計し,その性能を4つのWMTベンチマークで総合的に評価する。
以上の結果から,MATは従来の自己回帰変換器と同等の品質の翻訳を生成できることが示唆された。
さらに,高次MATを利用する利点は,より長い文の翻訳に特に寄与しないことがわかった。
- 参考スコア(独自算出の注目度): 54.38443321191235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we re-examine the Markov property in the context of neural
machine translation. We design a Markov Autoregressive Transformer~(MAT) and
undertake a comprehensive assessment of its performance across four WMT
benchmarks. Our findings indicate that MAT with an order larger than 4 can
generate translations with quality on par with that of conventional
autoregressive transformers. In addition, counter-intuitively, we also find
that the advantages of utilizing a higher-order MAT do not specifically
contribute to the translation of longer sentences.
- Abstract(参考訳): 本稿では,ニューラルマシン翻訳の文脈におけるマルコフ特性を再検討する。
我々は、マルコフ自己回帰トランスフォーマー(mat)を設計し、その性能を4つのwmtベンチマークで包括的に評価する。
以上の結果から,MATは従来の自己回帰変換器と同等の品質の翻訳を生成できることが示唆された。
さらに,高次MATを利用する利点は,より長い文の翻訳に特に寄与しないことがわかった。
関連論文リスト
- Contrastive Preference Optimization: Pushing the Boundaries of LLM Performance in Machine Translation [50.00235162432848]
我々は22Kパラレル文と12Mパラメータしか持たないALMAモデルを訓練する。
ALMA-Rと呼ばれる結果のモデルは、WMTコンテストの勝者とGPT-4のパフォーマンスと一致または上回ることができる。
論文 参考訳(メタデータ) (2024-01-16T15:04:51Z) - Quick Back-Translation for Unsupervised Machine Translation [9.51657235413336]
我々は Transformer back-translation: Quick Back-translation (QBT) に対する2対1の改善を提案する。
QBTは、エンコーダを生成モデルとして再使用し、エンコーダ生成シーケンスを使用してデコーダを訓練する。
様々なWMTベンチマーク実験により、QBTはトレーニング効率の点で標準逆翻訳法よりも劇的に優れていることが示された。
論文 参考訳(メタデータ) (2023-12-01T20:27:42Z) - Robustness Tests for Automatic Machine Translation Metrics with
Adversarial Attacks [39.86206454559138]
我々は、BERTScore、BLEURT、COMETという3つの一般的な機械翻訳メトリクスに対する単語レベルおよび文字レベルの攻撃実験を行った。
我々の人間実験は、自動的なメトリクスが逆向きに劣化した翻訳を過小評価する傾向があることを実証した。
我々は、より堅牢なメートル法開発を動機付ける脆さのパターンを特定する。
論文 参考訳(メタデータ) (2023-11-01T13:14:23Z) - Leveraging GPT-4 for Automatic Translation Post-Editing [23.65958978995292]
GPT-4は翻訳後編集に長けており、有意義で信頼できる翻訳編集が可能である。
GPT-4に基づく後編集を用いて、WMT-22英語、英語、英語、中国語、ドイツ語のペアの最先端性能を改善した。
論文 参考訳(メタデータ) (2023-05-24T08:30:05Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - Modeling Context With Linear Attention for Scalable Document-Level
Translation [72.41955536834702]
本稿では,近年の文書翻訳における線形アテンションモデルの有効性について検討し,直流帰納バイアスを促進するためにセンデンシャルゲートで拡張する。
感性ゲーティングはIWSLTの翻訳品質をさらに向上させることを示す。
論文 参考訳(メタデータ) (2022-10-16T03:41:50Z) - Rethinking Round-Trip Translation for Machine Translation Evaluation [44.83568796515321]
ラウンドトリップ翻訳が参照なしで自動評価に利用できるという驚くべき発見を報告する。
ラウンドトリップ翻訳が複数の機械翻訳評価タスクに有用であることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:06:20Z) - Enriching Non-Autoregressive Transformer with Syntactic and
SemanticStructures for Neural Machine Translation [54.864148836486166]
本稿では,言語の明示的な構文構造と意味構造を非自己回帰トランスフォーマーに組み込むことを提案する。
我々のモデルは、最先端の非自己回帰モデルと比較して翻訳品質を保ちながら、はるかに高速な速度を実現している。
論文 参考訳(メタデータ) (2021-01-22T04:12:17Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。