論文の概要: Variational Encoder-Decoders for Learning Latent Representations of Physical Systems
- arxiv url: http://arxiv.org/abs/2412.05175v1
- Date: Fri, 06 Dec 2024 16:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:35.786861
- Title: Variational Encoder-Decoders for Learning Latent Representations of Physical Systems
- Title(参考訳): 物理系の潜在表現学習のための変分エンコーダデコーダ
- Authors: Subashree Venkatasubramanian, David A. Barajas-Solano,
- Abstract要約: 本稿では,物理系のデータ駆動型低次元表現を学習するためのフレームワークを提案する。
地下水流動モデルの観測井における油圧応答のモデル化に成功した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We present a deep-learning Variational Encoder-Decoder (VED) framework for learning data-driven low-dimensional representations of the relationship between high-dimensional parameters of a physical system and the system's high-dimensional observable response. The framework consists of two deep learning-based probabilistic transformations: An encoder mapping parameters to latent codes and a decoder mapping latent codes to the observable response. The hyperparameters of these transformations are identified by maximizing a variational lower bound on the log-conditional distribution of the observable response given parameters. To promote the disentanglement of latent codes, we equip this variational loss with a penalty on the off-diagonal entries of the aggregate distribution covariance of codes. This regularization penalty encourages the pushforward of a standard Gaussian distribution of latent codes to approximate the marginal distribution of the observable response. Using the proposed framework we successfully model the hydraulic pressure response at observation wells of a groundwater flow model as a function of its discrete log-hydraulic transmissivity field. Compared to the canonical correlation analysis encoding, the VED model achieves a lower-dimensional latent representation, with as low as $r = 50$ latent dimensions without a significant loss of reconstruction accuracy. We explore the impact of regularization on model performance, finding that KL-divergence and covariance regularization improve feature disentanglement in latent space while maintaining reconstruction accuracy. Furthermore, we evaluate the generative capabilities of the regularized model by decoding random Gaussian noise, revealing that tuning both $\beta$ and $\lambda$ parameters enhances the quality of the generated observable response data.
- Abstract(参考訳): 本稿では,物理系の高次元パラメータと高次元可観測応答の関係について,データ駆動型低次元表現を学習するための深層学習型変分エンコーダ・デコーダ(VED)フレームワークを提案する。
このフレームワークは2つのディープラーニングベースの確率変換で構成されている: 潜伏コードへのエンコーダマッピングパラメータと、潜伏コードから可観測応答へのデコーダマッピングである。
これらの変換のハイパーパラメータは、与えられたパラメータの対数条件分布における変分下界を最大化することによって同定される。
遅延符号の絡み合いを促進するために、この変分損失を、符号の集合分布共分散の対角外成分に対するペナルティとみなす。
この正規化ペナルティは、観測可能な応答の限界分布を近似するために、潜在符号の標準ガウス分布のプッシュフォワードを促進する。
提案手法を用いて, 地下水流動モデルの観測井における水圧応答を, 対流透過率の離散的な関数としてモデル化した。
標準相関解析エンコーディングと比較して、VEDモデルは低次元の潜伏表現を達成し、$r = 50$の潜伏次元を再現精度を著しく損なうことなく達成する。
モデル性能に対する正則化の影響について検討し、KL偏差と共分散正則化が再現精度を維持しつつ、潜在空間における特徴のゆがみを改善することを明らかにする。
さらに、ランダムなガウス雑音を復号することで正規化モデルの生成能力を評価し、$\beta$と$\lambda$パラメータの両方をチューニングすることで、生成した可観測応答データの品質を向上させることを明らかにした。
関連論文リスト
- Protect Before Generate: Error Correcting Codes within Discrete Deep Generative Models [3.053842954605396]
本稿では,離散潜在変数モデルにおける変分推論を強化する新しい手法を提案する。
我々は誤り訂正符号(ECC)を活用し、潜伏表現に冗長性を導入する。
この冗長性は変分後部によって利用され、より正確な推定値が得られる。
論文 参考訳(メタデータ) (2024-10-10T11:59:58Z) - Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - How to train your VAE [0.0]
変分オートエンコーダ(VAE)は、機械学習における生成モデリングと表現学習の基盤となっている。
本稿では,ELBO(エビデンス・ロウアー・バウンド)における重要な構成要素であるKLディバージェンス(Kulback-Leibler)の解釈について検討する。
提案手法は, ELBOを後続確率のガウス混合体で再定義し, 正規化項を導入し, テクスチャリアリズムを高めるためにPatchGAN識別器を用いる。
論文 参考訳(メタデータ) (2023-09-22T19:52:28Z) - Conditional Korhunen-Lo\'{e}ve regression model with Basis Adaptation
for high-dimensional problems: uncertainty quantification and inverse
modeling [62.997667081978825]
本稿では,物理系の観測可能な応答のサロゲートモデルの精度を向上させる手法を提案する。
本研究では,定常水理応答のBasis Adaptation (BA)法による代理モデル構築に提案手法を適用した。
論文 参考訳(メタデータ) (2023-07-05T18:14:38Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Low-rank Characteristic Tensor Density Estimation Part II: Compression
and Latent Density Estimation [31.631861197477185]
生成確率モデルを学習することは、機械学習における中核的な問題である。
本稿では,共同次元化と非パラメトリック密度推定の枠組みを提案する。
提案手法は, 回帰処理, サンプリング, 異常検出において, 極めて有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-20T00:38:56Z) - Learning High-Precision Bounding Box for Rotated Object Detection via
Kullback-Leibler Divergence [100.6913091147422]
既存の回転物体検出器は、主に水平検出パラダイムから受け継がれている。
本稿では,回転回帰損失の設計を帰納パラダイムから導出手法に変更することを目的としている。
論文 参考訳(メタデータ) (2021-06-03T14:29:19Z) - Bayesian multiscale deep generative model for the solution of
high-dimensional inverse problems [0.0]
深層確率的生成モデルに基づく新しいマルチスケールベイズ推論手法が導入された。
この方法は、安定性、効率、精度を示しながら、高次元パラメータ推定を可能にする。
論文 参考訳(メタデータ) (2021-02-04T11:47:21Z) - Uncertainty Inspired RGB-D Saliency Detection [70.50583438784571]
本稿では,データラベリングプロセスから学習することで,RGB-D値検出の不確実性を利用した最初のフレームワークを提案する。
そこで本研究では,確率的RGB-Dサリエンシ検出を実現するために,サリエンシデータラベリングプロセスにインスパイアされた生成アーキテクチャを提案する。
6つの挑戦的RGB-Dベンチマークデータセットの結果から,サリエンシマップの分布を学習する際のアプローチの優れた性能が示された。
論文 参考訳(メタデータ) (2020-09-07T13:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。