論文の概要: An Introduction to Discrete Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2505.10344v1
- Date: Thu, 15 May 2025 14:33:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.356344
- Title: An Introduction to Discrete Variational Autoencoders
- Title(参考訳): 変分オートコーダの離散化入門
- Authors: Alan Jeffares, Liyuan Liu,
- Abstract要約: 変分オートエンコーダ(VAE)はニューラルネットワークによる教師なし学習の原則的アプローチである。
本チュートリアルでは,カテゴリー分布に従う潜在変数からなる潜在空間を,厳密かつ実用的に導入する。
- 参考スコア(独自算出の注目度): 11.274766489368059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders (VAEs) are well-established as a principled approach to probabilistic unsupervised learning with neural networks. Typically, an encoder network defines the parameters of a Gaussian distributed latent space from which we can sample and pass realizations to a decoder network. This model is trained to reconstruct its inputs and is optimized through the evidence lower bound. In recent years, discrete latent spaces have grown in popularity, suggesting that they may be a natural choice for many data modalities (e.g. text). In this tutorial, we provide a rigorous, yet practical, introduction to discrete variational autoencoders -- specifically, VAEs in which the latent space is made up of latent variables that follow a categorical distribution. We assume only a basic mathematical background with which we carefully derive each step from first principles. From there, we develop a concrete training recipe and provide an example implementation, hosted at https://github.com/alanjeffares/discreteVAE.
- Abstract(参考訳): 変分オートエンコーダ(VAE)は、ニューラルネットワークによる確率論的教師なし学習の原則的アプローチとして確立されている。
典型的には、エンコーダネットワークはガウス分布の潜在空間のパラメータを定義し、そこからデコーダネットワークに実化をサンプリングして渡すことができる。
このモデルは入力を再構築するために訓練され、エビデンス・ローバウンドを通じて最適化される。
近年、離散潜在空間の人気が高まっており、多くのデータモダリティ(例えばテキスト)にとって自然選択である可能性が示唆されている。
このチュートリアルでは、離散変分オートエンコーダ(特に、潜在空間がカテゴリー分布に従う潜在変数からなるVAE)について、厳密で実践的な紹介を行う。
基本的な数学的背景だけを仮定し、第一原理から各ステップを慎重に導き出します。
そこから具体的なトレーニングレシピを開発し、https://github.com/alanjeffares/discreteVAE.comにホストされたサンプル実装を提供する。
関連論文リスト
- Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Direct Evolutionary Optimization of Variational Autoencoders With Binary
Latents [0.0]
サンプルベース近似や再パラメータ化を使わずに、個別の潜入子で変分オートエンコーダ(VAE)を訓練できることが示される。
大規模な教師付きネットワークとは対照的に、調査対象のVAEは、例えば、よりクリーンなデータや大規模な画像データセットのトレーニングを行うことなく、単一のイメージをノイズ化することができる。
論文 参考訳(メタデータ) (2020-11-27T12:42:12Z) - Simple and Effective VAE Training with Calibrated Decoders [123.08908889310258]
変分オートエンコーダ(VAE)は、複雑な分布をモデル化するための効果的で簡単な方法である。
復号分布の不確かさを学習する校正復号器の影響について検討する。
本稿では,一般的なガウス復号器の簡易かつ斬新な修正を提案し,その予測分散を解析的に計算する。
論文 参考訳(メタデータ) (2020-06-23T17:57:47Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。