論文の概要: Target Conditioning for One-to-Many Generation
- arxiv url: http://arxiv.org/abs/2009.09758v1
- Date: Mon, 21 Sep 2020 11:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:15:41.844927
- Title: Target Conditioning for One-to-Many Generation
- Title(参考訳): 一対多世代のための目標条件付け
- Authors: Marie-Anne Lachaux, Armand Joulin, Guillaume Lample
- Abstract要約: 本研究では,NMTモデルのデコーダを,対象文の領域を表す潜在変数に条件付けすることで,この一対多マッピングを明示的にモデル化することを提案する。
推論では、異なるドメインでデコードすることで、多様な翻訳を生成することができる。
モデルが生成する翻訳の質と多様性を3つの異なるデータセットで評価する。
- 参考スコア(独自算出の注目度): 30.402378832810697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Machine Translation (NMT) models often lack diversity in their
generated translations, even when paired with search algorithm, like beam
search. A challenge is that the diversity in translations are caused by the
variability in the target language, and cannot be inferred from the source
sentence alone. In this paper, we propose to explicitly model this one-to-many
mapping by conditioning the decoder of a NMT model on a latent variable that
represents the domain of target sentences. The domain is a discrete variable
generated by a target encoder that is jointly trained with the NMT model. The
predicted domain of target sentences are given as input to the decoder during
training. At inference, we can generate diverse translations by decoding with
different domains. Unlike our strongest baseline (Shen et al., 2019), our
method can scale to any number of domains without affecting the performance or
the training time. We assess the quality and diversity of translations
generated by our model with several metrics, on three different datasets.
- Abstract(参考訳): ニューラルネットワーク翻訳(nmt)モデルは、ビーム探索のような検索アルゴリズムと組み合わせる場合でも、生成された翻訳の多様性を欠くことが多い。
課題は、翻訳の多様性が対象言語の可変性によって引き起こされ、原文のみから推測できないことである。
本論文では,NMTモデルのデコーダを,対象文の領域を表す潜在変数に条件付けすることで,この一対多マッピングを明示的にモデル化する。
ドメインはNMTモデルと共同でトレーニングされたターゲットエンコーダによって生成される離散変数である。
目標文の予測領域は、訓練中にデコーダへの入力として与えられる。
推論では、異なるドメインでデコードすることで様々な翻訳を生成することができる。
我々の最強のベースライン(Shen et al., 2019)とは異なり、我々の方法はパフォーマンスやトレーニング時間に影響を与えることなく、あらゆるドメインにスケールできる。
我々は,モデルが生成する翻訳の質と多様性を,複数の指標を用いて3つの異なるデータセットで評価する。
関連論文リスト
- Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - VarMAE: Pre-training of Variational Masked Autoencoder for
Domain-adaptive Language Understanding [5.1282202633907]
本稿では,ドメイン適応型言語理解のためのトランスフォーマーベース言語モデルであるVarMAEを提案する。
マスク付き自動符号化の目的のもと,トークンのコンテキストをスムーズな潜伏分布に符号化するコンテキスト不確実性学習モジュールを設計する。
科学および金融分野におけるNLUタスクの実験は、VarMAEが限られたリソースを持つ新しいドメインに効率的に適応できることを実証している。
論文 参考訳(メタデータ) (2022-11-01T12:51:51Z) - QAGAN: Adversarial Approach To Learning Domain Invariant Language
Features [0.76146285961466]
ドメイン不変の特徴を学習するための敵対的学習手法について検討する。
EMスコアが15.2%改善され、ドメイン外の検証データセットでF1スコアが5.6%向上しました。
論文 参考訳(メタデータ) (2022-06-24T17:42:18Z) - Beyond Deterministic Translation for Unsupervised Domain Adaptation [19.358300726820943]
本研究では、教師なしドメイン適応(UDA)におけるソースとターゲットドメイン間の1対1マッピング('翻訳')の共通アプローチに挑戦する。
代わりに、ソースとターゲットドメイン間の固有の曖昧さをキャプチャするために、翻訳に依存しています。
近年の強いベースラインに対する改善を報告し、2つの挑戦的なセマンティックセグメンテーションベンチマークで最先端のUDA結果を得た。
論文 参考訳(メタデータ) (2022-02-15T23:03:33Z) - Non-Parametric Unsupervised Domain Adaptation for Neural Machine
Translation [61.27321597981737]
$k$NN-MTは、トレーニング済みニューラルネットワーク翻訳(NMT)モデルとドメイン固有のトークンレベルである$k$-nearest-neighbor検索を直接組み込むという有望な能力を示している。
対象言語におけるドメイン内単言語文を直接使用して,$k$-nearest-neighbor検索に有効なデータストアを構築する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-14T11:50:01Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。