論文の概要: Modeling Voting for System Combination in Machine Translation
- arxiv url: http://arxiv.org/abs/2007.06943v1
- Date: Tue, 14 Jul 2020 09:59:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:40:48.861750
- Title: Modeling Voting for System Combination in Machine Translation
- Title(参考訳): 機械翻訳におけるシステム結合投票のモデル化
- Authors: Xuancheng Huang, Jiacheng Zhang, Zhixing Tan, Derek F. Wong, Huanbo
Luan, Jingfang Xu, Maosong Sun, Yang Liu
- Abstract要約: 本稿では,機械翻訳におけるシステムの組み合わせに対する投票のモデル化手法を提案する。
提案手法は,仮説間の関係を解析できるだけでなく,エンドツーエンドのトレーニングを可能にするため,統計的手法とニューラル手法の利点を組み合わせたものである。
- 参考スコア(独自算出の注目度): 92.09572642019145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: System combination is an important technique for combining the hypotheses of
different machine translation systems to improve translation performance.
Although early statistical approaches to system combination have been proven
effective in analyzing the consensus between hypotheses, they suffer from the
error propagation problem due to the use of pipelines. While this problem has
been alleviated by end-to-end training of multi-source sequence-to-sequence
models recently, these neural models do not explicitly analyze the relations
between hypotheses and fail to capture their agreement because the attention to
a word in a hypothesis is calculated independently, ignoring the fact that the
word might occur in multiple hypotheses. In this work, we propose an approach
to modeling voting for system combination in machine translation. The basic
idea is to enable words in hypotheses from different systems to vote on words
that are representative and should get involved in the generation process. This
can be done by quantifying the influence of each voter and its preference for
each candidate. Our approach combines the advantages of statistical and neural
methods since it can not only analyze the relations between hypotheses but also
allow for end-to-end training. Experiments show that our approach is capable of
better taking advantage of the consensus between hypotheses and achieves
significant improvements over state-of-the-art baselines on Chinese-English and
English-German machine translation tasks.
- Abstract(参考訳): システム結合は、異なる機械翻訳システムの仮説を組み合わせる重要な技術であり、翻訳性能を向上させる。
システム組み合わせに対する初期の統計的アプローチは仮説間のコンセンサスを分析するのに有効であることが証明されているが、パイプラインの使用によるエラー伝搬の問題に悩まされている。
この問題は、近年のマルチソースシーケンス・ツー・シーケンスモデルのエンドツーエンドトレーニングによって緩和されているが、これらのニューラルモデルは仮説間の関係を明示的に分析せず、仮説中の単語への注意が独立に計算されるため、複数の仮説で単語が生じる可能性を無視する。
本研究では,機械翻訳におけるシステム組み合わせに対する投票のモデル化手法を提案する。
基本的な考え方は、異なるシステムからの仮説における単語を、代表的で生成プロセスに関与するべき単語に投票できるようにすることである。
これは、各投票者の影響力と各候補者の選好を定量化する。
本手法は,仮説間の関係を解析できるだけでなく,エンドツーエンドのトレーニングを可能にするため,統計的手法とニューラル手法の利点を組み合わせる。
実験の結果,我々の手法は仮説のコンセンサスをうまく活用でき,中国語とドイツ語の機械翻訳タスクにおける最先端のベースラインを大幅に改善できることがわかった。
関連論文リスト
- Word-wise intonation model for cross-language TTS systems [0.0]
提案手法は,自動データマークアップとテキスト音声合成システムへの応用に適している。
キーとなるアイデアは、単語中の強勢音節の異なる配置と結びついた変動性の部分的除去である。
提案モデルは,テキストから音声への韻律記述のツールとして,あるいはバックボーンとして使用することができる。
論文 参考訳(メタデータ) (2024-09-30T15:09:42Z) - Improving Language Models Meaning Understanding and Consistency by
Learning Conceptual Roles from Dictionary [65.268245109828]
現代事前訓練言語モデル(PLM)の非人間的行動は、その信頼性を損なう主要な原因である。
驚くべき現象は、矛盾した結果を生み出す不整合予測の生成である。
本研究では,PLMの認知度を向上させることで,一貫性のない行動問題を緩和する実践的アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-24T06:15:15Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Token-wise Decomposition of Autoregressive Language Model Hidden States
for Analyzing Model Predictions [9.909170013118775]
本研究は,各初期入力トークンに基づいて,自己回帰言語モデルから最終隠れ状態の線形分解を行う。
次単語確率の変化を重要度尺度として、まず、どの文脈語が言語モデル予測に最も貢献するかを検討する。
論文 参考訳(メタデータ) (2023-05-17T23:55:32Z) - An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented
Dialogue Generation [21.106357884651363]
我々は,モデル決定を推論チェーンで正当化する明示的推論を行うために,ニューロシンボリックを導入する。
仮説生成器と推論器からなる2相手法を提案する。
システム全体は、推論チェーンアノテーションを使わずに、生のテキスト対話を利用して訓練される。
論文 参考訳(メタデータ) (2022-03-11T10:44:08Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - On Sampling-Based Training Criteria for Neural Language Modeling [97.35284042981675]
我々はモンテカルロサンプリング、重要サンプリング、補償部分和と呼ばれる新しい方法、およびノイズコントラスト推定を検討する。
対象のクラス後部確率を補正しさえすれば,これらすべてのサンプリング手法が同等に動作可能であることを示す。
Switchboard と LibriSpeech における言語モデリングと音声認識の実験結果が,我々の主張を支持した。
論文 参考訳(メタデータ) (2021-04-21T12:55:52Z) - Do all Roads Lead to Rome? Understanding the Role of Initialization in
Iterative Back-Translation [48.26374127723598]
バックトランスレーションはニューラル機械翻訳(NMT)における単言語コーパスを活用するアプローチである
本稿では,事前学習が反復的バックトランスレーションにおいて果たす役割について分析する。
その結果,初期システムの品質は最終性能に影響を及ぼすが,その効果は比較的小さいことがわかった。
論文 参考訳(メタデータ) (2020-02-28T17:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。