論文の概要: Accurate Online Posterior Alignments for Principled
Lexically-Constrained Decoding
- arxiv url: http://arxiv.org/abs/2204.00871v1
- Date: Sat, 2 Apr 2022 14:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 06:38:49.110771
- Title: Accurate Online Posterior Alignments for Principled
Lexically-Constrained Decoding
- Title(参考訳): 原理的語彙制約付き復号のための正確なオンライン後置アライメント
- Authors: Soumya Chatterjee, Sunita Sarawagi, Preethi Jyothi
- Abstract要約: 本稿では,その実行において真にオンラインであり,アライメントエラー率の点で優れている新しいアライメント手法を提案する。
2つの遠い言語ペアを含む5つの言語ペアにおいて、一貫したアライメントエラー率の低下を達成する。
語彙的に制約された7つの翻訳タスクにデプロイすると、BLEUの特に制約された位置に関する大幅な改善が達成される。
- 参考スコア(独自算出の注目度): 40.212186465135304
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Online alignment in machine translation refers to the task of aligning a
target word to a source word when the target sequence has only been partially
decoded. Good online alignments facilitate important applications such as
lexically constrained translation where user-defined dictionaries are used to
inject lexical constraints into the translation model. We propose a novel
posterior alignment technique that is truly online in its execution and
superior in terms of alignment error rates compared to existing methods. Our
proposed inference technique jointly considers alignment and token
probabilities in a principled manner and can be seamlessly integrated within
existing constrained beam-search decoding algorithms. On five language pairs,
including two distant language pairs, we achieve consistent drop in alignment
error rates. When deployed on seven lexically constrained translation tasks, we
achieve significant improvements in BLEU specifically around the constrained
positions.
- Abstract(参考訳): 機械翻訳におけるオンラインアライメント(オンラインアライメント)とは、ターゲットシーケンスが部分的にデコードされただけで、ターゲットワードをソースワードにアライメントするタスクを指す。
優れたオンラインアライメントは、ユーザーが定義した辞書を使って語彙制約を翻訳モデルに注入する語彙制約付き翻訳のような重要な応用を促進する。
本稿では,従来の手法に比べてアライメントエラー率に優れ,実行時に真にオンラインである新しいアライメント手法を提案する。
提案手法は,アライメントとトークンの確率を原理的に考慮し,既存の制約付きビーム探索復号アルゴリズムにシームレスに統合することができる。
2つの言語ペアを含む5つの言語ペアにおいて、アライメントエラー率の一貫した低下を実現する。
語彙的に制約された7つの翻訳タスクにデプロイすると、BLEUの特に制約された位置に関する大幅な改善が達成される。
関連論文リスト
- An Analysis of BPE Vocabulary Trimming in Neural Machine Translation [56.383793805299234]
語彙トリミング(vocabulary trimming)は、まれなサブワードをコンポーネントサブワードに置き換える後処理のステップである。
ボキャブラリトリミングは性能向上に失敗し,さらに大きな劣化を招きやすいことを示す。
論文 参考訳(メタデータ) (2024-03-30T15:29:49Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z) - Third-Party Aligner for Neural Word Alignments [18.745852103348845]
本稿では,ニューラルネットワークによる単語アライメントトレーニングの監督のために,サードパーティ製単語アライメント器によって生成された単語アライメントを提案する。
実験により、我々のアプローチは第三者の監督に対して驚くほど自己補正が可能であることが示された。
我々は最先端の単語アライメント性能を達成し、最高のサードパーティアライメントよりも平均2ポイント以上低いアライメント誤り率を持つ。
論文 参考訳(メタデータ) (2022-11-08T12:30:08Z) - Unsupervised Alignment of Distributional Word Embeddings [0.0]
クロスドメインアライメントは、機械翻訳から伝達学習までのタスクにおいて重要な役割を果たす。
提案手法は,複数の言語対をまたいだバイリンガル語彙誘導タスクにおいて,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-03-09T16:39:06Z) - Using Optimal Transport as Alignment Objective for fine-tuning
Multilingual Contextualized Embeddings [7.026476782041066]
我々は,マルチリンガルな文脈化表現を改善するために,微調整時のアライメント目的として最適輸送(OT)を提案する。
このアプローチでは、微調整の前に単語アライメントペアを必要とせず、教師なしの方法で文脈内の単語アライメントを学習する。
論文 参考訳(メタデータ) (2021-10-06T16:13:45Z) - End-to-End Lexically Constrained Machine Translation for Morphologically
Rich Languages [0.0]
本研究は, 機械翻訳による単語の正しいインフレクションを許容する機構について検討する。
英語とチェコ語のペアを用いた実験により, 自動評価と手動評価の両方において, 制約付き単語の翻訳が改良されることが示唆された。
論文 参考訳(メタデータ) (2021-06-23T13:40:13Z) - SLUA: A Super Lightweight Unsupervised Word Alignment Model via
Cross-Lingual Contrastive Learning [79.91678610678885]
超軽量非教師付き単語アライメントモデル(SLUA)を提案する。
いくつかの公開ベンチマークによる実験結果から,我々のモデルは性能が向上しても競争力を発揮することが示された。
特に、我々のモデルはバイリンガル単語の埋め込みと単語のアライメントを統一する先駆的な試みであると認識している。
論文 参考訳(メタデータ) (2021-02-08T05:54:11Z) - Word Alignment by Fine-tuning Embeddings on Parallel Corpora [96.28608163701055]
並列コーパス上の単語アライメントには、翻訳語彙の学習、言語処理ツールの言語間変換、翻訳出力の自動評価や解析など、幅広い応用がある。
近年,複数言語で訓練された言語モデル(LM)から抽出した事前学習された単語埋め込みが,並列データに対する明示的な訓練がなくても,単語アライメントタスクにおける競合的な結果が得られることを示す研究も行われている。
本稿では,事前学習したLMの活用と,アライメント品質の向上を目的とした並列テキストによる微調整,提案という2つのアプローチの結婚方法を検討する。
論文 参考訳(メタデータ) (2021-01-20T17:54:47Z) - Learning aligned embeddings for semi-supervised word translation using
Maximum Mean Discrepancy [3.299672391663527]
本稿では,単語ペアを必要としない単語埋め込みアライメントのためのエンドツーエンドアプローチを提案する。
本手法は, 文章翻訳訓練において, 局所的な最大平均離散性(MMD)制約を用いて整列した埋め込みを学習する。
提案手法は,教師なしの手法だけでなく,既知の単語翻訳を訓練する教師付き手法にも優れることを示す。
論文 参考訳(メタデータ) (2020-06-20T13:57:55Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。