論文の概要: Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders
- arxiv url: http://arxiv.org/abs/2109.07399v1
- Date: Wed, 15 Sep 2021 16:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:48:30.250725
- Title: Disentangling Generative Factors of Physical Fields Using Variational
Autoencoders
- Title(参考訳): 変分オートエンコーダを用いた物理場の分散生成因子
- Authors: Christian Jacobsen and Karthik Duraisamy
- Abstract要約: 本研究は,非線形次元低減のための変分オートエンコーダ (VAE) の利用について検討する。
不整合分解は解釈可能であり、生成的モデリングを含む様々なタスクに転送することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to extract generative parameters from high-dimensional fields of
data in an unsupervised manner is a highly desirable yet unrealized goal in
computational physics. This work explores the use of variational autoencoders
(VAEs) for non-linear dimension reduction with the aim of disentangling the
low-dimensional latent variables to identify independent physical parameters
that generated the data. A disentangled decomposition is interpretable and can
be transferred to a variety of tasks including generative modeling, design
optimization, and probabilistic reduced order modelling. A major emphasis of
this work is to characterize disentanglement using VAEs while minimally
modifying the classic VAE loss function (i.e. the ELBO) to maintain high
reconstruction accuracy. Disentanglement is shown to be highly sensitive to
rotations of the latent space, hyperparameters, random initializations and the
learning schedule. The loss landscape is characterized by over-regularized
local minima which surrounds desirable solutions. We illustrate comparisons
between disentangled and entangled representations by juxtaposing learned
latent distributions and the 'true' generative factors in a model porous flow
problem. Implementing hierarchical priors (HP) is shown to better facilitate
the learning of disentangled representations over the classic VAE. The choice
of the prior distribution is shown to have a dramatic effect on
disentanglement. In particular, the regularization loss is unaffected by latent
rotation when training with rotationally-invariant priors, and thus learning
non-rotationally-invariant priors aids greatly in capturing the properties of
generative factors, improving disentanglement. Some issues inherent to training
VAEs, such as the convergence to over-regularized local minima are illustrated
and investigated, and potential techniques for mitigation are presented.
- Abstract(参考訳): 教師なしの方法でデータの高次元分野から生成パラメータを抽出する能力は、計算物理学において非常に望ましいが未実現の目標である。
本研究は, 非線形次元低減のための変分オートエンコーダ(vaes)の利用を考察し, 低次元の潜在変数を分離して, データを生成する独立な物理パラメータを同定することを目的としている。
不整合分解は解釈可能であり、生成的モデリング、設計最適化、確率的還元順序モデリングを含む様々なタスクに転送することができる。
従来のvae損失関数(すなわちelbo)を最小に修正し、高い再構成精度を維持することで、vaesを用いた絡み合いを特徴付けることが本研究の主な重点である。
乱れは潜在空間の回転、ハイパーパラメータ、ランダム初期化、学習スケジュールに非常に敏感であることが示されている。
損失の風景は、望ましい解を取り囲む過剰に正規化された局所的ミニマによって特徴づけられる。
本稿では,モデル多孔質流れ問題における学習潜在分布と「真の」生成因子を交互に配置することにより,不連続表現と絡み合い表現の比較を行う。
階層的先行性(HP)の実装は、古典的VAE上での非絡み合った表現の学習をより促進する。
先行分布の選択は乱れに劇的な影響を与えることが示されている。
特に、回転不変前のトレーニングにおいて、正規化損失は潜時回転の影響を受けず、非回転不変の事前学習は、生成因子の特性を捕捉し、乱れを改善するのに大いに役立つ。
過正規化局所ミニマへの収束など,VAEの訓練に固有のいくつかの課題が説明され,検討され,緩和のための潜在的技術が提示される。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Revisiting Essential and Nonessential Settings of Evidential Deep Learning [70.82728812001807]
Evidential Deep Learning (EDL) は不確実性推定の新しい手法である。
本報告では,EDLの簡易かつ効果的な拡張型であるRe-EDLを提案する。
論文 参考訳(メタデータ) (2024-10-01T04:27:07Z) - Minimizing Energy Costs in Deep Learning Model Training: The Gaussian Sampling Approach [11.878350833222711]
ガウス分布からの勾配更新をサンプリングするために, em GradSamp という手法を提案する。
Em GradSampは、勾配の合理化だけでなく、エポック全体のスキップを可能にし、全体的な効率を向上させる。
我々は、標準CNNとトランスフォーマーベースモデルの多種多様なセットにまたがって、我々の仮説を厳格に検証する。
論文 参考訳(メタデータ) (2024-06-11T15:01:20Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - Posterior Collapse and Latent Variable Non-identifiability [54.842098835445]
柔軟性を犠牲にすることなく識別性を強制する深層生成モデルである,潜時同定可能な変分オートエンコーダのクラスを提案する。
合成および実データ全体にわたって、潜在識別可能な変分オートエンコーダは、後方崩壊を緩和し、データの有意義な表現を提供する既存の方法より優れている。
論文 参考訳(メタデータ) (2023-01-02T06:16:56Z) - RENs: Relevance Encoding Networks [0.0]
本稿では,遅延空間に先行する自動相対性決定(ARD)を用いて,データ固有のボトルネック次元を学習する新しい確率的VOEベースのフレームワークであるrelevance encoding network (RENs)を提案する。
提案モデルは,サンプルの表現や生成品質を損なうことなく,関連性のあるボトルネック次元を学習することを示す。
論文 参考訳(メタデータ) (2022-05-25T21:53:48Z) - Adversarial and Contrastive Variational Autoencoder for Sequential
Recommendation [25.37244686572865]
本稿では、逐次レコメンデーションのためのAdversarial and Contrastive Variational Autoencoder (ACVAE) と呼ばれる新しい手法を提案する。
まず,本モデルが高品質な潜在変数を生成することを可能にするadversarial variational bayesフレームワークの下で,シーケンス生成のためのadversarial trainingを導入する。
さらに、シーケンスをエンコードする場合、シーケンス内のグローバルおよびローカルの関係をキャプチャするために、繰り返しおよび畳み込み構造を適用します。
論文 参考訳(メタデータ) (2021-03-19T09:01:14Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Neural Decomposition: Functional ANOVA with Variational Autoencoders [9.51828574518325]
変分オートエンコーダ (VAEs) は次元減少に対する一般的なアプローチとなっている。
VAEのブラックボックスの性質のため、医療やゲノミクスの応用には限界があった。
本研究では,条件付きVAEの変動源の特徴付けに焦点をあてる。
論文 参考訳(メタデータ) (2020-06-25T10:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。