論文の概要: Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck
- arxiv url: http://arxiv.org/abs/2004.10603v2
- Date: Thu, 25 Feb 2021 16:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:04:00.338465
- Title: Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck
- Title(参考訳): 離散的潜在ボトルネックを持つテキスト生成のための変分オートエンコーダの改善
- Authors: Yang Zhao, Ping Yu, Suchismit Mahapatra, Qinliang Su and Changyou Chen
- Abstract要約: 変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
- 参考スコア(独自算出の注目度): 52.08901549360262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders (VAEs) are essential tools in end-to-end
representation learning. However, the sequential text generation common pitfall
with VAEs is that the model tends to ignore latent variables with a strong
auto-regressive decoder. In this paper, we propose a principled approach to
alleviate this issue by applying a discretized bottleneck to enforce an
implicit latent feature matching in a more compact latent space. We impose a
shared discrete latent space where each input is learned to choose a
combination of latent atoms as a regularized latent representation. Our model
endows a promising capability to model underlying semantics of discrete
sequences and thus provide more interpretative latent structures. Empirically,
we demonstrate our model's efficiency and effectiveness on a broad range of
tasks, including language modeling, unaligned text style transfer, dialog
response generation, and neural machine translation.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
しかしながら、VAEのシーケンシャルテキスト生成の共通の落とし穴は、強い自己回帰デコーダで潜在変数を無視する傾向にある。
本稿では,よりコンパクトな潜在空間における暗黙的特徴マッチングを強制するために,離散ボトルネックを適用することにより,この問題を軽減するための原則的アプローチを提案する。
我々は、各入力が正規化潜在性表現として潜在原子の組み合わせを選択することを学習する共有離散潜在性空間を課す。
我々のモデルは、離散列の基本的な意味論をモデル化する有望な能力を提供し、より解釈的な潜在構造を提供する。
経験的に、言語モデリング、不整合テキストスタイル転送、対話応答生成、ニューラルマシン翻訳など、幅広いタスクにおいて、モデルの効率性と有効性を示す。
関連論文リスト
- Autoregressive Speech Synthesis without Vector Quantization [135.4776759536272]
テキストから音声合成(TTS)のための新しい連続値トークンに基づく言語モデリング手法であるMELLEを提案する。
MELLEはテキスト条件から直接連続メル-スペクトログラムフレームを自動回帰生成する。
論文 参考訳(メタデータ) (2024-07-11T14:36:53Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Learning Semantic Textual Similarity via Topic-informed Discrete Latent
Variables [17.57873577962635]
我々は、意味的テキスト類似性のためのトピックインフォームド離散潜在変数モデルを開発した。
我々のモデルはベクトル量子化による文対表現のための共有潜在空間を学習する。
我々のモデルは意味的テキスト類似性タスクにおいて、いくつかの強力な神経ベースラインを超えることができることを示す。
論文 参考訳(メタデータ) (2022-11-07T15:09:58Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Adaptive Discrete Communication Bottlenecks with Dynamic Vector
Quantization [76.68866368409216]
入力に条件付けされた離散化の厳密度を動的に選択する学習を提案する。
コミュニケーションボトルネックの動的に変化する厳密さは、視覚的推論や強化学習タスクにおけるモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-02T23:54:26Z) - Disentangling Generative Factors in Natural Language with Discrete
Variational Autoencoders [0.0]
連続変数は、テキスト中のほとんどの生成因子が離散的であるという事実から、テキストデータの特徴をモデル化するのに理想的ではないかもしれない。
本稿では,言語特徴を離散変数としてモデル化し,不整合表現を学習するための変数間の独立性を促進する変分自動符号化手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T09:10:05Z) - Discrete Auto-regressive Variational Attention Models for Text Modeling [53.38382932162732]
変分オートエンコーダ(VAE)はテキストモデリングに広く応用されている。
情報不足と後部崩壊という2つの課題に悩まされている。
本稿では,自己回帰変動注意モデル(DAVAM)を提案する。
論文 参考訳(メタデータ) (2021-06-16T06:36:26Z) - Robust Training of Vector Quantized Bottleneck Models [21.540133031071438]
ベクトル量子変分自動エンコーダモデル(VQ-VAEs)を用いた離散表現の信頼性と効率的な訓練法を示す。
教師なし表現学習では、変分オートエンコーダ(VAE)のような連続潜伏変数モデルの代替となる。
論文 参考訳(メタデータ) (2020-05-18T08:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。