論文の概要: Conditional Bilingual Mutual Information Based Adaptive Training for
Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2203.02951v1
- Date: Sun, 6 Mar 2022 12:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 16:22:23.706744
- Title: Conditional Bilingual Mutual Information Based Adaptive Training for
Neural Machine Translation
- Title(参考訳): 条件付きバイリンガル相互情報に基づくニューラルマシン翻訳のための適応学習
- Authors: Songming Zhang, Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jian
Liu and Jie Zhou
- Abstract要約: トークンレベルの適応トレーニングアプローチはトークンの不均衡問題を緩和することができる。
条件付きバイリンガル相互情報(CBMI)という目標コンテキスト対応メトリックを提案する。
CBMIは、事前の統計計算なしで、モデルトレーニング中に効率的に計算することができる。
- 参考スコア(独自算出の注目度): 66.23055784400475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Token-level adaptive training approaches can alleviate the token imbalance
problem and thus improve neural machine translation, through re-weighting the
losses of different target tokens based on specific statistical metrics (e.g.,
token frequency or mutual information). Given that standard translation models
make predictions on the condition of previous target contexts, we argue that
the above statistical metrics ignore target context information and may assign
inappropriate weights to target tokens. While one possible solution is to
directly take target contexts into these statistical metrics, the
target-context-aware statistical computing is extremely expensive, and the
corresponding storage overhead is unrealistic. To solve the above issues, we
propose a target-context-aware metric, named conditional bilingual mutual
information (CBMI), which makes it feasible to supplement target context
information for statistical metrics. Particularly, our CBMI can be formalized
as the log quotient of the translation model probability and language model
probability by decomposing the conditional joint distribution. Thus CBMI can be
efficiently calculated during model training without any pre-specific
statistical calculations and large storage overhead. Furthermore, we propose an
effective adaptive training approach based on both the token- and
sentence-level CBMI. Experimental results on WMT14 English-German and WMT19
Chinese-English tasks show our approach can significantly outperform the
Transformer baseline and other related methods.
- Abstract(参考訳): トークンレベルの適応トレーニングアプローチは、特定の統計指標(トークン頻度や相互情報など)に基づいて異なるターゲットトークンの損失を再重み付けすることにより、トークンの不均衡問題を緩和し、ニューラルネットワーク翻訳を改善することができる。
標準翻訳モデルが以前のターゲットコンテキストの条件で予測を行うことを考えると、上記の統計指標はターゲットコンテキスト情報を無視し、ターゲットトークンに不適切な重みを割り当てる可能性がある。
1つの解決策は、これらの統計指標にターゲットコンテキストを直接取り込むことであるが、ターゲットコンテキスト対応の統計計算は非常に高価であり、対応するストレージオーバーヘッドは非現実的である。
以上の課題を解決するために,CBMI (Consulal Bilingual mutual information) という目標コンテキスト対応のメトリクスを提案する。
特に,条件付きジョイント分布を分解することにより,翻訳モデルの確率と言語モデルの確率のログ商として定式化することができる。
したがって、CBMIは、事前の統計計算や大きな記憶オーバーヘッドなしに、モデルトレーニング中に効率的に計算することができる。
さらに,トークンレベルのCBMIと文レベルのCBMIの両方に基づく効果的な適応学習手法を提案する。
WMT14英語-ドイツ語およびWMT19中国語-英語タスクの実験結果から,我々の手法はTransformerベースラインおよび他の関連手法よりも優れていることが示された。
関連論文リスト
- Pretraining Data Detection for Large Language Models: A Divergence-based Calibration Method [108.56493934296687]
本研究では,乱数から発散する概念に触発された偏差に基づくキャリブレーション手法を導入し,プリトレーニングデータ検出のためのトークン確率のキャリブレーションを行う。
我々は,中国語テキスト上でのLLMの検出手法の性能を評価するために,中国語のベンチマークであるPatentMIAを開発した。
論文 参考訳(メタデータ) (2024-09-23T07:55:35Z) - TeLeS: Temporal Lexeme Similarity Score to Estimate Confidence in
End-to-End ASR [1.8477401359673709]
クラス確率に基づく信頼スコアは、自信過剰なASR予測の品質を正確に表すものではない。
信頼度推定モデル(CEM)を訓練するためのTeLeS(Temporal-Lexeme similarity)の信頼性スコアを提案する。
我々は、ヒンディー語、タミル語、カナダ語という3つの言語で訓練されたASRモデルを用いて、様々なトレーニングデータサイズで実験を行う。
論文 参考訳(メタデータ) (2024-01-06T16:29:13Z) - Does Manipulating Tokenization Aid Cross-Lingual Transfer? A Study on
POS Tagging for Non-Standardized Languages [18.210880703295253]
3つの異なる家系の7つの言語で事前訓練された言語モデル(PLM)を精査する。
我々は,そのゼロショット性能を,近縁な非標準多様体で解析する。
全体として、ソース内のサブワードに分割される単語の割合とターゲットデータとの類似性が、ターゲットデータ上でのモデル性能の予測に最強であることが判明した。
論文 参考訳(メタデータ) (2023-04-20T08:32:34Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Bilingual Mutual Information Based Adaptive Training for Neural Machine
Translation [38.83163343372786]
本稿では,両言語主義の観点から,目標トークンの学習難度を計測する,新しいバイリンガル相互情報(BMI)に基づく適応目的を提案する。
WMT14英語-ドイツ語とWMT19中国語-英語による実験結果は、Transformerベースラインと従来のトークンレベルの適応トレーニングアプローチと比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2021-05-26T12:54:24Z) - Cross-Lingual Named Entity Recognition Using Parallel Corpus: A New
Approach Using XLM-RoBERTa Alignment [5.747195707763152]
我々は、XLM-RoBERTa上にエンティティアライメントモデルを構築し、並列データの英語部分で検出されたエンティティを対象言語文に投影する。
翻訳方法とは異なり、このアプローチはターゲット言語のオリジナルコーパスの自然な流派性とニュアンスから利益を得ます。
提案手法をベンチマークデータセット上で4つのターゲット言語に対して評価し,最新のSOTAモデルと比較してF1スコアを得た。
論文 参考訳(メタデータ) (2021-01-26T22:19:52Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。