論文の概要: A Sparsity-promoting Dictionary Model for Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2203.15758v1
- Date: Tue, 29 Mar 2022 17:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 17:04:18.564177
- Title: A Sparsity-promoting Dictionary Model for Variational Autoencoders
- Title(参考訳): 変分オートエンコーダのためのスパルシリティ・プロモーティング辞書モデル
- Authors: Mostafa Sadeghi, Paul Magron
- Abstract要約: 深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
- 参考スコア(独自算出の注目度): 16.61511959679188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structuring the latent space in probabilistic deep generative models, e.g.,
variational autoencoders (VAEs), is important to yield more expressive models
and interpretable representations, and to avoid overfitting. One way to achieve
this objective is to impose a sparsity constraint on the latent variables,
e.g., via a Laplace prior. However, such approaches usually complicate the
training phase, and they sacrifice the reconstruction quality to promote
sparsity. In this paper, we propose a simple yet effective methodology to
structure the latent space via a sparsity-promoting dictionary model, which
assumes that each latent code can be written as a sparse linear combination of
a dictionary's columns. In particular, we leverage a computationally efficient
and tuning-free method, which relies on a zero-mean Gaussian latent prior with
learnable variances. We derive a variational inference scheme to train the
model. Experiments on speech generative modeling demonstrate the advantage of
the proposed approach over competing techniques, since it promotes sparsity
while not deteriorating the output speech quality.
- Abstract(参考訳): 確率的深層生成モデル(例えば、変分オートエンコーダ(VAE))における潜伏空間の構造化は、より表現力のあるモデルや解釈可能な表現を導き、過度な適合を避けるために重要である。
この目的を達成する方法の1つは、遅延変数(例えば、Laplaceを前もって)にスパーシティ制約を課すことである。
しかし、そのようなアプローチはトレーニングフェーズを複雑にし、スパーシティを促進するために再構築品質を犠牲にする。
本稿では,各潜在コードを辞書の列のスパース線形結合として書くことができることを前提として,スパルシティ・プロモーティング・ディクショナリモデルを用いて,潜在空間を構成する簡易かつ効果的な手法を提案する。
特に,学習可能な分散を持つゼロ平均ガウス的潜在性に先行する計算効率とチューニングフリーの手法を活用した。
モデルを訓練するための変分推論スキームを導出する。
音声生成モデル実験は、出力音声品質を損なうことなくスパーシティを促進するため、競合技術に対する提案手法の利点を実証する。
関連論文リスト
- Faster Language Models with Better Multi-Token Prediction Using Tensor Decomposition [5.575078692353885]
本稿では, 精度を損なうことなくサンプリング効率を向上させることを目的とした, 変圧器のマルチトークン予測のための新しいモデルを提案する。
階数=r$標準確率分解に一般化することにより、複数のトークンを同時に予測する改良されたモデルを開発する。
論文 参考訳(メタデータ) (2024-10-23T11:06:36Z) - Disentanglement with Factor Quantized Variational Autoencoders [11.086500036180222]
本稿では,生成因子に関する基礎的真理情報をモデルに提供しない離散変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 離散表現を学習する上で, 連続表現を学習することの利点を実証する。
FactorQVAEと呼ばれる手法は,最適化に基づく不整合アプローチと離散表現学習を組み合わせた最初の手法である。
論文 参考訳(メタデータ) (2024-09-23T09:33:53Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - A weighted-variance variational autoencoder model for speech enhancement [0.0]
パラメータ学習における各スペクトル時間枠の寄与を重み付けした重み付き分散生成モデルを提案する。
提案した生成モデルに基づいて,効率的な学習と音声強調アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-11-02T09:51:15Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Generative Text Modeling through Short Run Inference [47.73892773331617]
本研究は、推論のためのショートランダイナミックスを提案し、潜伏変数の以前の分布から変化し、後続分布によって導かれる少数のランゲヴィンダイナミックスステップを実行する。
短絡力学で訓練されたモデルは、強い言語モデルやVAEベースラインと比較して、より正確にデータをモデル化し、後方崩壊の兆候は示さない。
論文 参考訳(メタデータ) (2021-05-27T09:14:35Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。