論文の概要: Half-VAE: An Encoder-Free VAE to Bypass Explicit Inverse Mapping
- arxiv url: http://arxiv.org/abs/2409.04140v1
- Date: Fri, 6 Sep 2024 09:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 16:16:11.510273
- Title: Half-VAE: An Encoder-Free VAE to Bypass Explicit Inverse Mapping
- Title(参考訳): Half-VAE: 明示的な逆マッピングを回避するエンコーダフリーなVAE
- Authors: Yuan-Hao Wei, Yan-Jie Sun, Chen Zhang,
- Abstract要約: 推論と逆問題(inference)と逆問題(inverse problem)は密接に関連する概念であり、どちらも基本的には未知の原因や観測データからのパラメータの推論を含む。
本研究では,独立成分分析(ICA)などの逆問題に対するVAEの可能性を探る。
他のVAEベースのICAメソッドとは異なり、このアプローチはVAEアーキテクチャのエンコーダを捨て、潜在変数を直接トレーニング可能なパラメータとして設定する。
- 参考スコア(独自算出の注目度): 5.212606755867746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inference and inverse problems are closely related concepts, both fundamentally involving the deduction of unknown causes or parameters from observed data. Bayesian inference, a powerful class of methods, is often employed to solve a variety of problems, including those related to causal inference. Variational inference, a subset of Bayesian inference, is primarily used to efficiently approximate complex posterior distributions. Variational Autoencoders (VAEs), which combine variational inference with deep learning, have become widely applied across various domains. This study explores the potential of VAEs for solving inverse problems, such as Independent Component Analysis (ICA), without relying on an explicit inverse mapping process. Unlike other VAE-based ICA methods, this approach discards the encoder in the VAE architecture, directly setting the latent variables as trainable parameters. In other words, the latent variables are no longer outputs of the encoder but are instead optimized directly through the objective function to converge to appropriate values. We find that, with a suitable prior setup, the latent variables, represented by trainable parameters, can exhibit mutually independent properties as the parameters converge, all without the need for an encoding process. This approach, referred to as the Half-VAE, bypasses the inverse mapping process by eliminating the encoder. This study demonstrates the feasibility of using the Half-VAE to solve ICA without the need for an explicit inverse mapping process.
- Abstract(参考訳): 推論と逆問題(inference)と逆問題(inverse problem)は密接に関連する概念であり、どちらも基本的には未知の原因や観測データからのパラメータの推論を含む。
強力な手法であるベイズ推論は、因果推論に関連するものを含む様々な問題を解決するためにしばしば用いられる。
ベイズ予想のサブセットである変分推論は、主に複素後続分布を効率的に近似するために用いられる。
変分推論とディープラーニングを組み合わせた変分オートエンコーダ(VAE)は,様々な領域に広く適用されている。
本研究では,独立成分分析(ICA)のような逆問題に対するVAEの可能性を,明示的な逆写像プロセスに頼らずに検討する。
他のVAEベースのICAメソッドとは異なり、このアプローチはVAEアーキテクチャのエンコーダを捨て、潜在変数を直接トレーニング可能なパラメータとして設定する。
言い換えれば、潜伏変数はもはやエンコーダの出力ではなく、代わりに目的関数から直接最適化され、適切な値に収束する。
適切な事前設定により、トレーニング可能なパラメータで表される潜伏変数は、パラメータが収束するにつれて相互に独立性を示すことができる。
このアプローチはハーフ-VAEと呼ばれ、エンコーダを排除して逆マッピングプロセスをバイパスする。
本研究では,明示的な逆写像処理を必要とせず,半VAEを用いてICAを解く可能性を示す。
関連論文リスト
- Improving Diffusion Models for Inverse Problems Using Optimal Posterior Covariance [52.093434664236014]
近年の拡散モデルは、特定の逆問題に対して再訓練することなく、ノイズの多い線形逆問題に対する有望なゼロショット解を提供する。
この発見に触発されて、我々は、最大推定値から決定されるより原理化された共分散を用いて、最近の手法を改善することを提案する。
論文 参考訳(メタデータ) (2024-02-03T13:35:39Z) - Semi-supervised Invertible DeepONets for Bayesian Inverse Problems [8.594140167290098]
DeepONetsは、学習オペレーターによってパラメトリックPDEを解決する強力なデータ駆動ツールを提供する。
本研究では,高次元ベイズ逆問題(Bayesian inverse problem)の文脈で物理インフォームド・ディープノネット(DeepONets)を用いる。
論文 参考訳(メタデータ) (2022-09-06T18:55:06Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - Consistency Regularization for Variational Auto-Encoders [14.423556966548544]
変分自動エンコーダ(VAE)は教師なし学習の強力なアプローチである。
本稿では,VAEの整合性を強制する正規化手法を提案する。
論文 参考訳(メタデータ) (2021-05-31T10:26:32Z) - Learning Invariant Representations using Inverse Contrastive Loss [34.93395633215398]
興味のある変数に不変な学習表現に対して,損失のクラスを導入する。
外部変数がバイナリである場合、iclの最適化は正規化mmd分岐の最適化と同値であることを示す。
論文 参考訳(メタデータ) (2021-02-16T18:29:28Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Quantitative Understanding of VAE as a Non-linearly Scaled Isometric
Embedding [52.48298164494608]
変分オートエンコーダ(VAE)は、各入力データに対応する潜伏変数の後方パラメータを推定する。
本稿では,VAEの微分幾何学的および情報理論的解釈を通じて,VAEの特性を定量的に理解する。
論文 参考訳(メタデータ) (2020-07-30T02:37:46Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - On the Encoder-Decoder Incompatibility in Variational Text Modeling and
Beyond [82.18770740564642]
変分オートエンコーダ(VAE)は、潜時変数と償却変分推論を結合する。
我々は,データ多様体のパラメータ化が不十分なエンコーダ・デコーダの不整合性を観察する。
同一構造を持つ決定論的オートエンコーダとVAEモデルを結合した結合型VAEを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:10Z) - NestedVAE: Isolating Common Factors via Weak Supervision [45.366986365879505]
我々は、バイアス低減の課題と、ドメイン間で共通する分離要因の関係を同定する。
共通因子を分離するために、潜伏変数モデルの理論と情報ボトルネック理論を組み合わせる。
共有重みを持つ2つの外部VAEは入力を再構成し、潜伏空間を推論し、一方、ネストされたVAEはペア化された画像の潜伏表現から1つの画像の潜伏表現を再構成しようとする。
論文 参考訳(メタデータ) (2020-02-26T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。