論文の概要: Variational Hyper-Encoding Networks
- arxiv url: http://arxiv.org/abs/2005.08482v2
- Date: Fri, 13 May 2022 00:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:54:08.193649
- Title: Variational Hyper-Encoding Networks
- Title(参考訳): 変分ハイパーエンコーディングネットワーク
- Authors: Phuoc Nguyen, Truyen Tran, Sunil Gupta, Santu Rana, Hieu-Chi Dam,
Svetha Venkatesh
- Abstract要約: ニューラルネットワークパラメータの分布を符号化するHyperVAEというフレームワークを提案する。
遅延符号の後部分布を予測し,行列ネットワークデコーダを用いて後部分布q(theta)を生成する。
- 参考スコア(独自算出の注目度): 62.74164588885455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a framework called HyperVAE for encoding distributions of
distributions. When a target distribution is modeled by a VAE, its neural
network parameters \theta is drawn from a distribution p(\theta) which is
modeled by a hyper-level VAE. We propose a variational inference using Gaussian
mixture models to implicitly encode the parameters \theta into a low
dimensional Gaussian distribution. Given a target distribution, we predict the
posterior distribution of the latent code, then use a matrix-network decoder to
generate a posterior distribution q(\theta). HyperVAE can encode the parameters
\theta in full in contrast to common hyper-networks practices, which generate
only the scale and bias vectors as target-network parameters. Thus HyperVAE
preserves much more information about the model for each task in the latent
space. We discuss HyperVAE using the minimum description length (MDL) principle
and show that it helps HyperVAE to generalize. We evaluate HyperVAE in density
estimation tasks, outlier detection and discovery of novel design classes,
demonstrating its efficacy.
- Abstract(参考訳): 分布の分布を符号化するHyperVAEというフレームワークを提案する。
ターゲット分布がVAEでモデル化された場合、そのニューラルネットワークパラメータ \theta は超レベルVAEでモデル化された分布 p(\theta) から引き出される。
ガウス混合モデルを用いて、パラメータ \theta を低次元ガウス分布に暗黙的に符号化する変分推論を提案する。
対象分布が与えられると、潜在コードの後方分布を予測し、行列ネットワークデコーダを用いて後方分布q(\theta)を生成する。
HyperVAEは、ターゲットネットワークパラメータとしてスケールとバイアスベクトルだけを生成する一般的なハイパーネットワークプラクティスとは対照的に、パラメータ \theta をフルにエンコードすることができる。
したがって、HyperVAEは潜在空間における各タスクのモデルに関するより多くの情報を保存する。
我々は、最小記述長(MDL)原理を用いてHyperVAEについて議論し、HyperVAEの一般化に役立つことを示す。
密度推定タスクにおけるHyperVAEの評価,外乱検出,新しいデザインクラスの検出を行い,その有効性を示した。
関連論文リスト
- Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - PDE+: Enhancing Generalization via PDE with Adaptive Distributional
Diffusion [66.95761172711073]
ニューラルネットワークの一般化は、機械学習における中心的な課題です。
本稿では、入力データを調整することに集中するのではなく、ニューラルネットワークの基盤機能を直接拡張することを提案する。
私たちはこの理論的フレームワークを、$textbfPDE+$$textbfPDE$ with $textbfA$daptive $textbfD$istributional $textbfD$iffusionとして実践しました。
論文 参考訳(メタデータ) (2023-05-25T08:23:26Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Wrapped Distributions on homogeneous Riemannian manifolds [58.720142291102135]
パラメータ、対称性、モダリティなどの分布の性質の制御は、フレキシブルな分布の族を生み出す。
変動型オートエンコーダと潜在空間ネットワークモデル内で提案した分布を利用して,我々のアプローチを実証的に検証する。
論文 参考訳(メタデータ) (2022-04-20T21:25:21Z) - Exponentially Tilted Gaussian Prior for Variational Autoencoder [3.52359746858894]
近年の研究では, この課題に対して確率的生成モデルが不十分であることが示されている。
変分オートエンコーダ(VAE)の指数傾斜ガウス事前分布を提案する。
本モデルでは,標準ガウスVAEよりクオリティの高い画像サンプルが得られた。
論文 参考訳(メタデータ) (2021-11-30T18:28:19Z) - LaDDer: Latent Data Distribution Modelling with a Generative Prior [21.27563489899532]
変分オートエンコーダフレームワークにおける遅延データ分布の正確なモデリングを実現するため,LaDDerを提案する。
LaDDerはメタ埋め込みの概念で、複数のVAEモデルを使用して埋め込みの埋め込みを学ぶ。
本稿では,LaDDerモデルを用いて複雑な潜伏分布を正確に推定し,表現品質の向上を図っている。
論文 参考訳(メタデータ) (2020-08-31T20:10:01Z) - VAE-KRnet and its applications to variational Bayes [4.9545850065593875]
我々は密度推定や近似のための生成モデル VAE-KRnet を提案している。
VAEはラテント空間を捕捉する次元還元法であり、KRnetはラテント変数の分布をモデル化する。
VAE-KRnetは、データ分布または任意の確率密度関数を近似する密度モデルとして用いられる。
論文 参考訳(メタデータ) (2020-06-29T23:14:36Z) - Generative Semantic Hashing Enhanced via Boltzmann Machines [61.688380278649056]
既存の生成ハッシュ法は、主に後部分布の分解形式を仮定する。
本稿では,ボルツマンマシンの分布を検索後部として利用することを提案する。
ハッシュコード内の異なるビット間の相関関係を効果的にモデル化することにより、我々のモデルは大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2020-06-16T01:23:39Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。