論文の概要: Towards Example-Based NMT with Multi-Levenshtein Transformers
- arxiv url: http://arxiv.org/abs/2310.08967v1
- Date: Fri, 13 Oct 2023 09:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 13:29:42.626794
- Title: Towards Example-Based NMT with Multi-Levenshtein Transformers
- Title(参考訳): 多値変圧器を用いた実例ベースNMTに向けて
- Authors: Maxime Bouthors, Josep Crego and Fran\c{c}ois Yvon
- Abstract要約: 私たちは、RAMTの翻訳決定をより透過的にする能力について研究し、ユーザがこれらの決定に寄与した例に戻ることができるようにしました。
このモデルは、Levenshtein Transformerの検索拡張バージョンに適応し、メモリにある複数のファジィマッチングを同時に編集できるようにする。
実験の結果,いくつかの例の編集が翻訳スコアに肯定的な影響を与えていること,特に既存のインスタンスからコピーしたターゲットスパンの数の増加が示唆された。
- 参考スコア(独自算出の注目度): 5.809002150112752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Machine Translation (RAMT) is attracting growing
attention. This is because RAMT not only improves translation metrics, but is
also assumed to implement some form of domain adaptation. In this contribution,
we study another salient trait of RAMT, its ability to make translation
decisions more transparent by allowing users to go back to examples that
contributed to these decisions.
For this, we propose a novel architecture aiming to increase this
transparency. This model adapts a retrieval-augmented version of the
Levenshtein Transformer and makes it amenable to simultaneously edit multiple
fuzzy matches found in memory. We discuss how to perform training and inference
in this model, based on multi-way alignment algorithms and imitation learning.
Our experiments show that editing several examples positively impacts
translation scores, notably increasing the number of target spans that are
copied from existing instances.
- Abstract(参考訳): Retrieval-Augmented Machine Translation (RAMT)が注目されている。
これはRAMTが翻訳メトリクスを改善するだけでなく、ある種のドメイン適応の実装も想定されているためである。
本研究は,RAMTの優れた特徴として,ユーザがこれらの決定に寄与する例に遡れるようにすることで,翻訳決定をより透明にする能力について考察する。
そこで我々は,この透明性を高めることを目的とした新しいアーキテクチャを提案する。
このモデルは、Levenshtein Transformerの検索拡張バージョンに適応し、メモリにある複数のファジィマッチングを同時に編集できるようにする。
本稿では,マルチウェイアライメントアルゴリズムと模倣学習に基づいて,このモデルでトレーニングと推論を行う方法について論じる。
実験の結果,いくつかの例の編集が翻訳スコアに肯定的な影響を与え,特に既存のインスタンスからコピーしたターゲットスパンの数が増加した。
関連論文リスト
- Optimizing example selection for retrieval-augmented machine translation with translation memories [9.67203800171351]
アップストリーム検索のステップを改善し、ダウンストリーム編集に基づく修正モデルを検討することを目的としている。
このタスクは、ソース文の全体カバレッジを最大化する一連の例を見つけることで構成される。
機械翻訳作業における結果のパフォーマンス向上を評価した。
論文 参考訳(メタデータ) (2024-05-23T21:42:03Z) - Retrieving Examples from Memory for Retrieval Augmented Neural Machine Translation: A Systematic Comparison [0.0]
いくつかの翻訳アーキテクチャにおける様々な検索手法の効果について検討する。
本実験により, 検索手法の選択は, アーキテクチャ間の差異を伴って, 翻訳スコアに影響を及ぼすことが示された。
また、サンプルの数と多様性を増大させる効果についても論じる。
論文 参考訳(メタデータ) (2024-04-03T16:13:29Z) - End-to-End Lip Reading in Romanian with Cross-Lingual Domain Adaptation
and Lateral Inhibition [2.839471733237535]
我々は、Wild LRRoと呼ばれる、表現不足の短いルーマニア語のデータセット上で、いくつかのアーキテクチャと最適化を解析する。
提案手法,すなわち,言語間ドメイン適応とラベルなしビデオを用いて,最先端の検索結果を得る。
また、神経阻害機構にインスパイアされた層を付加する性能も評価した。
論文 参考訳(メタデータ) (2023-10-07T15:36:58Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - SML: a new Semantic Embedding Alignment Transformer for efficient
cross-lingual Natural Language Inference [71.57324258813674]
トランスフォーマーが質問応答、自然言語推論(NLI)、要約といった様々なタスクを精度良く実行できることは、現在この種のタスクに対処するための最良のパラダイムの1つとしてランク付けすることができる。
nliは、複雑な文を理解するための知識が必要であり、仮説と前提の関係を確立するため、これらのアーキテクチャをテストする最良のシナリオの1つである。
本稿では,自然言語推論のための多言語組込みを効率的にアライメントするための新しいアーキテクチャ siamese multilingual transformer を提案する。
論文 参考訳(メタデータ) (2021-03-17T13:23:53Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Deep Transformers with Latent Depth [42.33955275626127]
Transformerモデルは、多くのシーケンスモデリングタスクにおいて最先端のパフォーマンスを達成した。
本稿では,層選択の後方分布を学習することで,どの層を使うかを自動的に学習する確率的フレームワークを提案する。
多言語機械翻訳のための1つの共有トランスフォーマーネットワークを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T07:13:23Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Explicit Reordering for Neural Machine Translation [50.70683739103066]
Transformer-based neural machine translation (NMT)では、位置符号化機構は、自己アテンションネットワークが順序依存でソース表現を学習するのに役立つ。
本研究では,トランスフォーマーベースのNMTに対して,このリオーダ情報を明示的にモデル化する新しいリオーダ手法を提案する。
WMT14, WAT ASPEC日本語訳, WMT17中国語訳の実証結果から, 提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-04-08T05:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。