論文の概要: It's Easier to Translate out of English than into it: Measuring Neural
Translation Difficulty by Cross-Mutual Information
- arxiv url: http://arxiv.org/abs/2005.02354v2
- Date: Sun, 17 May 2020 06:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 14:07:59.915694
- Title: It's Easier to Translate out of English than into it: Measuring Neural
Translation Difficulty by Cross-Mutual Information
- Title(参考訳): 英語から英語への翻訳はより簡単: 相互交流情報による神経翻訳の難易度の測定
- Authors: Emanuele Bugliarello, Sabrina J. Mielke, Antonios Anastasopoulos, Ryan
Cotterell, Naoaki Okazaki
- Abstract要約: クロスミューチュアル情報(英: Cross-mutual information、XMI)は、機械翻訳の難易度に関する非対称情報理論の指標である。
XMIは、ほとんどのニューラルマシン翻訳モデルの確率的性質を利用する。
本稿では,現代ニューラル翻訳システムを用いた言語間翻訳の難易度に関する最初の体系的および制御的な研究について述べる。
- 参考スコア(独自算出の注目度): 90.35685796083563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of neural machine translation systems is commonly evaluated
in terms of BLEU. However, due to its reliance on target language properties
and generation, the BLEU metric does not allow an assessment of which
translation directions are more difficult to model. In this paper, we propose
cross-mutual information (XMI): an asymmetric information-theoretic metric of
machine translation difficulty that exploits the probabilistic nature of most
neural machine translation models. XMI allows us to better evaluate the
difficulty of translating text into the target language while controlling for
the difficulty of the target-side generation component independent of the
translation task. We then present the first systematic and controlled study of
cross-lingual translation difficulties using modern neural translation systems.
Code for replicating our experiments is available online at
https://github.com/e-bug/nmt-difficulty.
- Abstract(参考訳): ニューラルマシン翻訳システムの性能は一般にbleuの観点から評価される。
しかし、ターゲット言語の性質や生成に依存しているため、BLEUメトリックはどの翻訳方向をモデル化するのがより難しいかを評価できない。
本稿では,ほとんどのニューラル機械翻訳モデルの確率的性質を生かした,機械翻訳の難易度に関する非対称な情報理論であるクロスミューチュアル情報(XMI)を提案する。
XMIは,テキストを対象言語に翻訳することの難しさを,翻訳タスクに依存しないターゲット側生成コンポーネントの難しさを制御しながら,よりよく評価することができる。
次に,近代ニューラル翻訳システムを用いた言語間翻訳の難易度について,初めて体系的かつ制御された研究を行う。
実験を複製するコードはhttps://github.com/e-bug/nmt-difficulty.comで公開されている。
関連論文リスト
- LANDeRMT: Detecting and Routing Language-Aware Neurons for Selectively Finetuning LLMs to Machine Translation [43.26446958873554]
大規模言語モデル(LLM)は,バイリンガルの監督が限られているにもかかわらず,多言語翻訳において有望な結果を示している。
大規模言語モデル(LLM)の最近の進歩は,バイリンガルの監督が限定された場合でも,多言語翻訳において有望な結果を示している。
LandeRMT は LLM を textbfMachine textbfTranslation に選択的に微調整するフレームワークである。
論文 参考訳(メタデータ) (2024-09-29T02:39:42Z) - The Inside Story: Towards Better Understanding of Machine Translation
Neural Evaluation Metrics [8.432864879027724]
我々は、いくつかの神経説明可能性法を開発し比較し、最先端の微調整ニューラルネットワークメトリクスの解釈の有効性を実証する。
本研究は,これらのメトリクスが,翻訳誤りに直接起因するトークンレベルの情報を活用することを明らかにした。
論文 参考訳(メタデータ) (2023-05-19T16:42:17Z) - Contrastive Learning for Context-aware Neural Machine TranslationUsing
Coreference Information [14.671424999873812]
ソース文と文脈文のコア参照に基づく新しいデータ拡張とコントラスト学習方式であるCorefCLを提案する。
コンテキスト文で検出されたコア参照の言及を自動的に破損させることで、CorefCLはコア参照の不整合に敏感なモデルをトレーニングすることができる。
実験では,英語・ドイツ語・韓国語タスクの比較モデルのBLEUを一貫して改善した。
論文 参考訳(メタデータ) (2021-09-13T05:18:47Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - ChrEnTranslate: Cherokee-English Machine Translation Demo with Quality
Estimation and Corrective Feedback [70.5469946314539]
ChrEnTranslateは、英語と絶滅危惧言語チェロキーとの翻訳のためのオンライン機械翻訳デモシステムである。
統計モデルとニューラルネットワークモデルの両方をサポートし、信頼性をユーザに通知するための品質評価を提供する。
論文 参考訳(メタデータ) (2021-07-30T17:58:54Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Exploiting Neural Query Translation into Cross Lingual Information
Retrieval [49.167049709403166]
既存のCLIRシステムは、高度ニューラルネットワーク翻訳(NMT)ではなく、統計ベースの機械翻訳(SMT)を主に活用している
本稿では,ユーザクリックスルーデータに基づいてクエリ変換ペアを抽出する新しいデータ拡張手法を提案する。
実験結果から,提案手法は強いベースラインよりも高い検索精度が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-26T15:28:19Z) - Towards Multimodal Simultaneous Neural Machine Translation [28.536262015508722]
同時翻訳では、リアルタイム理解を実現するために、話者の発話が完了する前に文章を翻訳する。
このタスクは、復号時に入力情報が不足しているため、一般的な全文翻訳よりもはるかに難しい。
視覚情報を付加的なモダリティとして活用するマルチモーダル同時ニューラルネットワーク翻訳(MSNMT)を提案する。
論文 参考訳(メタデータ) (2020-04-07T08:02:21Z) - Cross-lingual Supervision Improves Unsupervised Neural Machine
Translation [97.84871088440102]
我々は,高リソース言語対からゼロリソース翻訳方向への弱教師付き信号を活用するために,多言語非教師付きNMTフレームワークを導入する。
6つのベンチマークの教師なし翻訳方向において,BLEUスコアが3以上あることにより,翻訳品質が大幅に向上する。
論文 参考訳(メタデータ) (2020-04-07T05:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。