論文の概要: On Geometry Regularization in Autoencoder Reduced-Order Models with Latent Neural ODE Dynamics
- arxiv url: http://arxiv.org/abs/2603.03238v1
- Date: Tue, 03 Mar 2026 18:31:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.927722
- Title: On Geometry Regularization in Autoencoder Reduced-Order Models with Latent Neural ODE Dynamics
- Title(参考訳): ニューラル・オードダイナミクスを用いたオートエンコーダの低次モデルにおける幾何正規化について
- Authors: Mikhail Osipov,
- Abstract要約: エンコーダ-デコーダ縮小順序モデルにおける学習潜在表現の幾何正規化戦略について検討する。
複数の種にまたがって、(a)cは、凍結オートエンコーダによる後続の潜伏力学の訓練を困難にする潜伏表現をしばしば生成する。
対照的に、(d)は学習した潜在力学の条件付け関連診断を一貫して改善し、ロールアウト性能が向上する傾向にある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate geometric regularization strategies for learned latent representations in encoder--decoder reduced-order models. In a fixed experimental setting for the advection--diffusion--reaction (ADR) equation, we model latent dynamics using a neural ODE and evaluate four regularization approaches applied during autoencoder pre-training: (a) near-isometry regularization of the decoder Jacobian, (b) a stochastic decoder gain penalty based on random directional gains, (c) a second-order directional curvature penalty, and (d) Stiefel projection of the first decoder layer. Across multiple seeds, we find that (a)--(c) often produce latent representations that make subsequent latent-dynamics training with a frozen autoencoder more difficult, especially for long-horizon rollouts, even when they improve local decoder smoothness or related sensitivity proxies. In contrast, (d) consistently improves conditioning-related diagnostics of the learned latent dynamics and tends to yield better rollout performance. We discuss the hypothesis that, in this setting, the downstream impact of latent-geometry mismatch outweighs the benefits of improved decoder smoothness.
- Abstract(参考訳): エンコーダ-デコーダ縮小順序モデルにおける学習潜在表現の幾何正規化戦略について検討する。
ADR(Advection-Diffusion-Reaction)方程式の定式化実験では、ニューラルネットワークを用いて潜時ダイナミクスをモデル化し、オートエンコーダの事前学習中に適用された4つの正則化アプローチを評価する。
(a)デコーダヤコビアンの近等距離正規化
b) ランダムな方向性の利得に基づく確率的デコーダの利得
(c)二階方向曲率刑
(d)第1デコーダ層のスティフェル投影
複数の種にまたがって、私たちはそれを発見します。
(a)-
(c) 局所デコーダの滑らかさや関連する感度プロキシを改善した場合でも、特に長期ロールアウトにおいて、凍結オートエンコーダによる後続の潜時力学トレーニングをより困難にする潜時表現をしばしば生成する。
対照的に
(d) 学習した潜伏ダイナミクスの条件づけ関連診断を一貫して改善し, ロールアウト性能が向上する傾向にある。
この設定では、潜在幾何学的ミスマッチの下流への影響はデコーダの滑らかさの改善の利点よりも優れているという仮説を議論する。
関連論文リスト
- From Sparse Sensors to Continuous Fields: STRIDE for Spatiotemporal Reconstruction [3.2580743227673694]
時空間デコーダを用いた高次元空間場を潜時状態にマッピングするフレームワークSTRIDEを提案する。
STRIDEは超高分解能をサポートし、超高分解能をサポートし、ノイズに対して頑健であることを示す。
論文 参考訳(メタデータ) (2026-02-04T04:39:23Z) - Parallel Diffusion Solver via Residual Dirichlet Policy Optimization [88.7827307535107]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低次元の予算で画像品質が著しく低下することが多い。
本研究では,各ステップに複数の勾配並列評価を組み込んだ新しいODE解法であるEnsemble Parallel Directionsolvr(EPD-EPr)を提案する。
論文 参考訳(メタデータ) (2025-12-28T05:48:55Z) - Zero-Variance Gradients for Variational Autoencoders [32.818968022327866]
変分オートエンコーダ(VAE)のような深層生成モデルの訓練は、潜伏変数のサンプリングを通じて勾配をバックプロパゲートする必要性によって、しばしば妨げられる。
本稿では,この問題をサイドステップとして,Silent Gradientsと呼ぶ新しい視点を提案する。
推定器を改良する代わりに、特定のデコーダアーキテクチャを解析的に利用して予測されるELBOを計算する。
論文 参考訳(メタデータ) (2025-08-05T15:54:21Z) - X$^{2}$-Gaussian: 4D Radiative Gaussian Splatting for Continuous-time Tomographic Reconstruction [64.2059940799033]
現在の方法では、時間分解能を呼吸ゲーティング装置で固定相に識別する。
新規なフレームワークであるX$2$-Gaussianは、動的放射スプラッティングと自己監督型呼吸運動学習を統合することで、連続的な4DCT再構成を可能にする。
論文 参考訳(メタデータ) (2025-03-27T17:59:57Z) - Augmented Invertible Koopman Autoencoder for long-term time series forecasting [7.875955593012905]
そこで我々は,Augmented Invertible Koopman AutoEncoder (AIKAE) を神経オートエンコーダに基づく新しい実装として提案する。
本稿では,衛星画像時系列の長期時系列予測実験によるAIKAEの関連性を示すとともに,大局的な見返り窓に基づく予測を含むベンチマークを行った。
論文 参考訳(メタデータ) (2025-03-17T08:40:50Z) - Path-minimizing Latent ODEs for improved extrapolation and inference [0.0]
潜在ODEモデルは動的システムの柔軟な記述を提供するが、外挿と複雑な非線形力学の予測に苦労することがある。
本稿では、時間に依存しない潜在表現を奨励することで、この二分法を利用する。
遅延空間における一般的な変分ペナルティを各システムのパス長の$ell$ペナルティに置き換えることで、モデルは異なる構成のシステムと容易に区別できるデータ表現を学ぶ。
これにより、GRU、RNN、LSTM/デコーダによるベースラインODEモデルと比較して、より高速なトレーニング、より小さなモデル、より正確で長時間の外挿が可能となる。
論文 参考訳(メタデータ) (2024-10-11T15:50:01Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - On the Encoder-Decoder Incompatibility in Variational Text Modeling and
Beyond [82.18770740564642]
変分オートエンコーダ(VAE)は、潜時変数と償却変分推論を結合する。
我々は,データ多様体のパラメータ化が不十分なエンコーダ・デコーダの不整合性を観察する。
同一構造を持つ決定論的オートエンコーダとVAEモデルを結合した結合型VAEを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。