論文の概要: Deterministic Decoding for Discrete Data in Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2003.02174v1
- Date: Wed, 4 Mar 2020 16:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:23:10.925080
- Title: Deterministic Decoding for Discrete Data in Variational Autoencoders
- Title(参考訳): 変分オートエンコーダにおける離散データの決定論的復号
- Authors: Daniil Polykovskiy and Dmitry Vetrov
- Abstract要約: サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
- 参考スコア(独自算出の注目度): 5.254093731341154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders are prominent generative models for modeling
discrete data. However, with flexible decoders, they tend to ignore the latent
codes. In this paper, we study a VAE model with a deterministic decoder
(DD-VAE) for sequential data that selects the highest-scoring tokens instead of
sampling. Deterministic decoding solely relies on latent codes as the only way
to produce diverse objects, which improves the structure of the learned
manifold. To implement DD-VAE, we propose a new class of bounded support
proposal distributions and derive Kullback-Leibler divergence for Gaussian and
uniform priors. We also study a continuous relaxation of deterministic decoding
objective function and analyze the relation of reconstruction accuracy and
relaxation parameters. We demonstrate the performance of DD-VAE on multiple
datasets, including molecular generation and optimization problems.
- Abstract(参考訳): 変分オートエンコーダは離散データモデリングのための顕著な生成モデルである。
しかし、フレキシブルなデコーダでは、潜在コードを無視する傾向がある。
本稿では,サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対する決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
決定論的デコーディングは、学習多様体の構造を改善するために、多様なオブジェクトを生成する唯一の方法として潜在コードのみに依存する。
dd-vaeを実装するために,新しい有界支援提案分布のクラスを提案し,ガウスおよび一様事前のkullback-leiblerダイバージェンスを導出する。
また, 決定論的復号目的関数の連続緩和について検討し, 再構成精度と緩和パラメータの関係を解析した。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
関連論文リスト
- Protect Before Generate: Error Correcting Codes within Discrete Deep Generative Models [3.053842954605396]
本稿では,離散潜在変数モデルにおける変分推論を強化する新しい手法を提案する。
我々は誤り訂正符号(ECC)を活用し、潜伏表現に冗長性を導入する。
この冗長性は変分後部によって利用され、より正確な推定値が得られる。
論文 参考訳(メタデータ) (2024-10-10T11:59:58Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - Vector Quantized Wasserstein Auto-Encoder [57.29764749855623]
生成的視点から深層離散表現を学習する。
我々は,コードワード列上の離散分布を付与し,コードワード列上の分布をデータ分布に伝達する決定論的デコーダを学習する。
WS 距離のクラスタリングの観点と結びつけて,より優れた,より制御可能なクラスタリングソリューションを実現するための,さらなる理論を開発しています。
論文 参考訳(メタデータ) (2023-02-12T13:51:36Z) - Fully Bayesian Autoencoders with Latent Sparse Gaussian Processes [23.682509357305406]
オートエンコーダとその変種は表現学習と生成モデリングにおいて最も広く使われているモデルの一つである。
ベイジアンオートエンコーダの潜在空間に完全スパースガウスプロセス先行を課す新しいスパースガウスプロセスベイジアンオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-02-09T09:57:51Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Model Selection for Bayesian Autoencoders [25.619565817793422]
本稿では,オートエンコーダの出力と経験的データ分布との分散スライス-ワッサーシュタイン距離を最適化することを提案する。
我々のBAEは、フレキシブルなディリクレ混合モデルを潜在空間に適合させることにより、生成モデルに変換する。
我々は,教師なしの学習課題に対する膨大な実験的キャンペーンを質的かつ定量的に評価し,先行研究が重要となる小規模データ体制において,我々のアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-06-11T08:55:00Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - On the Encoder-Decoder Incompatibility in Variational Text Modeling and
Beyond [82.18770740564642]
変分オートエンコーダ(VAE)は、潜時変数と償却変分推論を結合する。
我々は,データ多様体のパラメータ化が不十分なエンコーダ・デコーダの不整合性を観察する。
同一構造を持つ決定論的オートエンコーダとVAEモデルを結合した結合型VAEを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。