論文の概要: Sometimes We Want Translationese
- arxiv url: http://arxiv.org/abs/2104.07623v1
- Date: Thu, 15 Apr 2021 17:39:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 17:26:27.406312
- Title: Sometimes We Want Translationese
- Title(参考訳): 時々訳語を欲しがる
- Authors: Prasanna Parthasarathi, Koustuv Sinha, Joelle Pineau and Adina
Williams
- Abstract要約: 一部のアプリケーションでは、元の(入力)テキストに対する忠実さが保存に重要である。
NMTシステムが堅牢性と信頼性を示すかどうかを定量化する、シンプルで斬新な方法を提案します。
- 参考スコア(独自算出の注目度): 48.45003475966808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid progress in Neural Machine Translation (NMT) systems over the last few
years has been driven primarily towards improving translation quality, and as a
secondary focus, improved robustness to input perturbations (e.g. spelling and
grammatical mistakes). While performance and robustness are important
objectives, by over-focusing on these, we risk overlooking other important
properties. In this paper, we draw attention to the fact that for some
applications, faithfulness to the original (input) text is important to
preserve, even if it means introducing unusual language patterns in the
(output) translation. We propose a simple, novel way to quantify whether an NMT
system exhibits robustness and faithfulness, focusing on the case of word-order
perturbations. We explore a suite of functions to perturb the word order of
source sentences without deleting or injecting tokens, and measure the effects
on the target side in terms of both robustness and faithfulness. Across several
experimental conditions, we observe a strong tendency towards robustness rather
than faithfulness. These results allow us to better understand the trade-off
between faithfulness and robustness in NMT, and opens up the possibility of
developing systems where users have more autonomy and control in selecting
which property is best suited for their use case.
- Abstract(参考訳): ニューラルマシン翻訳(nmt)システムのここ数年の急速な進歩は、主に翻訳品質の向上、そして第二の焦点として、入力摂動(例えば)に対する堅牢性の向上に向けられている。
綴りと文法上の誤り)
パフォーマンスと堅牢性は重要な目標ですが、これらに過度に注目することで、他の重要な特性を見渡すリスクがあります。
本稿では,いくつかの応用において,原文(入力)への忠実さは,(出力)翻訳に異常な言語パターンを導入することを意味するとしても,保存することが重要であるという事実に留意する。
語順摂動の場合に着目し,NMTシステムが堅牢性や忠実性を示すかどうかを定量的に定量化する手法を提案する。
トークンの削除や注入をせずに,文の語順を乱す関数のスイートを探索し,頑健性と忠実性の両方の観点から対象側の効果を測定する。
いくつかの実験条件において、忠実性よりも頑健性に対する強い傾向を観察する。
これらの結果から,nmtの忠実性と堅牢性とのトレードオフをより深く理解することができ,ユーザがより自律性を持ち,ユースケースに最適なプロパティを選択するための制御性を持つシステムを開発する可能性を開くことができる。
関連論文リスト
- Understanding and Addressing the Under-Translation Problem from the Perspective of Decoding Objective [72.83966378613238]
最新のニューラル・マシン・トランスレーション(NMT)システムでは、アンダー・トランスレーションとオーバー・トランスレーションの2つの課題が残っている。
我々は,NMTにおけるアンダートランスレーションの根本原因を詳細に分析し,デコード目的の観点から解説する。
本研究は,低翻訳の検知器としてEOS(End Of Sentence)予測の信頼性を活用し,低翻訳のリスクが高い候補を罰する信頼性に基づくペナルティを強化することを提案する。
論文 参考訳(メタデータ) (2024-05-29T09:25:49Z) - Few-Shot Adversarial Prompt Learning on Vision-Language Models [62.50622628004134]
知覚不能な逆境摂動に対するディープニューラルネットワークの脆弱性は、広く注目を集めている。
それまでの努力は、相手の視覚的特徴をテキストの監督と整合させることで、ゼロショットの敵の堅牢性を達成した。
本稿では、限られたデータで入力シーケンスを適応させることで、対向性を大幅に向上させる、数ショットの対向的プロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T18:28:43Z) - CBSiMT: Mitigating Hallucination in Simultaneous Machine Translation
with Weighted Prefix-to-Prefix Training [13.462260072313894]
同時機械翻訳(SiMT)は、全文が利用可能になる前に翻訳を開始することを必要とする課題である。
Prefix-to-フレームワークはSiMTに適用されることが多く、部分的なソースプレフィックスのみを使用してターゲットトークンを予測することを学ぶ。
本稿では,モデル信頼を利用して幻覚トークンを知覚する信頼に基づく同時機械翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T02:44:45Z) - Towards preserving word order importance through Forced Invalidation [80.33036864442182]
事前学習された言語モデルは単語の順序に敏感であることを示す。
我々は,単語順序の重要性を維持するために強制的無効化を提案する。
実験の結果,強制的無効化は単語順に対するモデルの感度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-04-11T13:42:10Z) - Competency-Aware Neural Machine Translation: Can Machine Translation
Know its Own Translation Quality? [61.866103154161884]
ニューラルマシン翻訳(NMT)は、意識せずに起こる失敗に対してしばしば批判される。
本稿では,従来のNMTを自己推定器で拡張することで,新たな能力認識型NMTを提案する。
提案手法は品質評価において優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-25T02:39:41Z) - Understanding and Mitigating the Uncertainty in Zero-Shot Translation [92.25357943169601]
ゼロショット翻訳の不確実性の観点から、オフターゲット問題を理解し、緩和することを目的としている。
そこで本研究では,モデルトレーニングのためのトレーニングデータを認知するための,軽量かつ補完的な2つのアプローチを提案する。
提案手法は,強いMNMTベースライン上でのゼロショット翻訳の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-05-20T10:29:46Z) - PreQuEL: Quality Estimation of Machine Translation Outputs in Advance [32.922128367314194]
PreQuELシステムは、実際の翻訳とは無関係に、ある文がどの程度翻訳されるかを予測する。
タスクのベースラインモデルを開発し,その性能を解析する。
本手法は,品質評価タスクの性能向上にも有効であることを示す。
論文 参考訳(メタデータ) (2022-05-18T18:55:05Z) - PheMT: A Phenomenon-wise Dataset for Machine Translation Robustness on
User-Generated Contents [40.25277134147149]
日本語翻訳における特定の言語現象に対するMTシステムの堅牢性を評価するための新しいデータセットであるPheMTを提案する。
作成したデータセットを用いて行った実験では、社内モデルだけでなく、市販のシステムでも、特定の現象の存在によって大きく混乱していることが明らかになりました。
論文 参考訳(メタデータ) (2020-11-04T04:44:47Z) - Uncertainty-Aware Semantic Augmentation for Neural Machine Translation [37.555675157198145]
本稿では,複数の意味的に等価なソース文間の普遍的な意味情報を明示的にキャプチャする不確実性を考慮した意味拡張を提案する。
我々のアプローチは、強いベースラインと既存の手法を大きく上回る。
論文 参考訳(メタデータ) (2020-10-09T07:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。