論文の概要: From Unsupervised Machine Translation To Adversarial Text Generation
- arxiv url: http://arxiv.org/abs/2011.05449v1
- Date: Tue, 10 Nov 2020 23:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 07:32:45.793878
- Title: From Unsupervised Machine Translation To Adversarial Text Generation
- Title(参考訳): 教師なし機械翻訳から逆テキスト生成へ
- Authors: Ahmad Rashid, Alan Do-Omri, Md. Akmal Haidar, Qun Liu and Mehdi
Rezagholizadeh
- Abstract要約: 本稿では、教師なしニューラルネットワーク翻訳システムのエンコーダ表現からテキストを生成することができる自己注意型バイリンガル対向テキスト生成器(B-GAN)を提案する。
B-GANは、注目に基づくデコーダと組み合わせて、流動的な文を生成する分散潜在空間表現を生成することができる。
- 参考スコア(独自算出の注目度): 35.762161773313515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a self-attention based bilingual adversarial text generator
(B-GAN) which can learn to generate text from the encoder representation of an
unsupervised neural machine translation system. B-GAN is able to generate a
distributed latent space representation which can be paired with an attention
based decoder to generate fluent sentences. When trained on an encoder shared
between two languages and paired with the appropriate decoder, it can generate
sentences in either language. B-GAN is trained using a combination of
reconstruction loss for auto-encoder, a cross domain loss for translation and a
GAN based adversarial loss for text generation. We demonstrate that B-GAN,
trained on monolingual corpora only using multiple losses, generates more
fluent sentences compared to monolingual baselines while effectively using half
the number of parameters.
- Abstract(参考訳): 本稿では、教師なしニューラルネットワーク翻訳システムのエンコーダ表現からテキストを生成することができる自己注意型バイリンガル対向テキスト生成器(B-GAN)を提案する。
B-GANは、注目に基づくデコーダと組み合わせて、流動的な文を生成する分散潜在空間表現を生成することができる。
2つの言語間で共有され、適切なデコーダとペアリングされたエンコーダでトレーニングされると、どちらの言語でも文を生成することができる。
B-GANは、自動エンコーダの再構成損失、翻訳のクロスドメイン損失、テキスト生成のGANベースの対逆損失の組み合わせを用いて訓練される。
複数の損失のみを用いて単言語コーパスを訓練したb-ganは,パラメータの半数を効果的に用いながら,単言語ベースラインよりも流れる文を生成する。
関連論文リスト
- Unsupervised Sign Language Translation and Generation [72.01216288379072]
教師なし手話翻訳・生成ネットワーク(USLNet)を導入する。
USLNetは、並列手話データなしで、豊富な単一モダリティ(テキストとビデオ)データから学習する。
可変長テキストとビデオシーケンスの整合性の問題に対処するスライディングウインドウ手法を提案する。
論文 参考訳(メタデータ) (2024-02-12T15:39:05Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Improvement in Machine Translation with Generative Adversarial Networks [0.9612136532344103]
我々は、テキスト生成のモデルであるRelGANと、逆機械翻訳モデルであるNMT-GANからインスピレーションを得て、不器用な非流用な英語文から流用なものへの変換を学ぶモデルを実装した。
パラメータ $lambda$ を使って入力文からの逸脱量を制御します。
論文 参考訳(メタデータ) (2021-11-30T06:51:13Z) - DeltaLM: Encoder-Decoder Pre-training for Language Generation and
Translation by Augmenting Pretrained Multilingual Encoders [92.90543340071007]
本稿では,事前訓練された多言語エンコーダデコーダモデルDeltaLMを紹介する。
具体的には,事前学習した多言語エンコーダをデコーダで拡張し,自己指導型で事前学習する。
実験により、DeltaLMは自然言語生成と翻訳の両方のタスクにおいて、様々な強力なベースラインを上回ります。
論文 参考訳(メタデータ) (2021-06-25T16:12:10Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。