論文の概要: Latent Twins
- arxiv url: http://arxiv.org/abs/2509.20615v1
- Date: Wed, 24 Sep 2025 23:43:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.62333
- Title: Latent Twins
- Title(参考訳): 潜伏双生児
- Authors: Matthias Chung, Deepanshu Verma, Max Collins, Amit N. Subrahmanya, Varuni Katti Sastry, Vishwas Rao,
- Abstract要約: 基礎となる方程式に対して、潜在空間に隠された代理を生成する統一フレームワークを提案する。
ラテント・ツインズは、作用素によって支配される学習されたラテント空間の数学的システムをミラーする。
- 参考スコア(独自算出の注目度): 0.3078691410268859
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past decade, scientific machine learning has transformed the development of mathematical and computational frameworks for analyzing, modeling, and predicting complex systems. From inverse problems to numerical PDEs, dynamical systems, and model reduction, these advances have pushed the boundaries of what can be simulated. Yet they have often progressed in parallel, with representation learning and algorithmic solution methods evolving largely as separate pipelines. With \emph{Latent Twins}, we propose a unifying mathematical framework that creates a hidden surrogate in latent space for the underlying equations. Whereas digital twins mirror physical systems in the digital world, Latent Twins mirror mathematical systems in a learned latent space governed by operators. Through this lens, classical modeling, inversion, model reduction, and operator approximation all emerge as special cases of a single principle. We establish the fundamental approximation properties of Latent Twins for both ODEs and PDEs and demonstrate the framework across three representative settings: (i) canonical ODEs, capturing diverse dynamical regimes; (ii) a PDE benchmark using the shallow-water equations, contrasting Latent Twin simulations with DeepONet and forecasts with a 4D-Var baseline; and (iii) a challenging real-data geopotential reanalysis dataset, reconstructing and forecasting from sparse, noisy observations. Latent Twins provide a compact, interpretable surrogate for solution operators that evaluate across arbitrary time gaps in a single-shot, while remaining compatible with scientific pipelines such as assimilation, control, and uncertainty quantification. Looking forward, this framework offers scalable, theory-grounded surrogates that bridge data-driven representation learning and classical scientific modeling across disciplines.
- Abstract(参考訳): 過去10年間で、科学機械学習は複雑なシステムを分析し、モデル化し、予測するための数学的および計算的なフレームワークの開発に変化をもたらした。
逆問題から数値PDE、力学系、モデル還元に至るまで、これらの進歩はシミュレーションできる領域の境界を押し上げてきた。
表現学習とアルゴリズムによる解法は、主に独立したパイプラインとして進化している。
フェーフ{Latent Twins} を用いて、基礎となる方程式に対して潜在空間に隠された代理を生成する統一的な数学的枠組みを提案する。
デジタルツインがデジタル世界で物理系をミラーするのに対し、ラテントツインズは演算子によって支配される学習された潜在空間で数学系をミラーする。
このレンズを通して、古典的モデリング、反転、モデル還元、作用素近似は、すべて単一の原理の特別な場合として現れる。
我々は、ODEとPDEの両方に対してLatent Twinsの基本的な近似特性を確立し、3つの代表的な設定でフレームワークを実証する。
(i)多種多様な動的レジームを捕捉する標準ODE
(II)浅海方程式を用いたPDEベンチマーク、DeepONetとLatent Twinシミュレーションの対比、4D-Varベースラインでの予測
3) 疎度で雑音の多い観測から再構成し, 予測する, リアルタイムな地磁気的再分析データセット。
ラテント・ツインズは、単一ショットで任意の時間間隔で評価されるソリューション演算子に対してコンパクトで解釈可能なサロゲートを提供するが、同化、制御、不確実性定量化のような科学パイプラインとの互換性は保たれている。
今後このフレームワークは、データ駆動表現学習と古典的な科学モデリングを分野にわたって橋渡しする、スケーラブルで理論に基づくサロゲートを提供する。
関連論文リスト
- Enabling Local Neural Operators to perform Equation-Free System-Level Analysis [1.2468700211588881]
ニューラルネットワーク(NO)は、物理法則を含む計算のための強力なフレームワークを提供する。
我々は、Krylov部分空間における(局所的な)NOと高度な反復的数値法を統合するフレームワークを提案し、実装する。
3つの非線形PDEベンチマークを通して、我々のフレームワークを説明します。
論文 参考訳(メタデータ) (2025-05-05T01:17:18Z) - Differentiable DG with Neural Operator Source Term Correction [0.0]
圧縮可能なNavier-Stokes方程式を解くためのエンドツーエンドの微分可能なフレームワークを提案する。
この統合アプローチは、微分可能不連続なガレルキン解法とニューラルネットワークのソース項を組み合わせる。
提案するフレームワークの性能を2つの例で示す。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Probabilistic machine learning based predictive and interpretable
digital twin for dynamical systems [0.0]
ディジタルツインを更新するための2つのアプローチが提案されている。
どちらの場合も、更新されたデジタル双生児の表現は同一である。
提案手法は、ディジタル双対モデルにおける摂動の正確な説明を提供する。
論文 参考訳(メタデータ) (2022-12-19T04:25:59Z) - Distributed Bayesian Learning of Dynamic States [65.7870637855531]
提案アルゴリズムは有限状態隠れマルコフモデルに対する分散ベイズフィルタタスクである。
逐次状態推定や、動的環境下でのソーシャルネットワーク上での意見形成のモデル化に使用できる。
論文 参考訳(メタデータ) (2022-12-05T19:40:17Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Long-time integration of parametric evolution equations with
physics-informed DeepONets [0.0]
ランダムな初期条件を関連するPDE解に短時間でマッピングする無限次元演算子を学習するための効果的なフレームワークを提案する。
その後、訓練されたモデルを反復的に評価することにより、一連の初期条件にわたるグローバルな長期予測が得られる。
これは時間領域分解に対する新しいアプローチを導入し、正確な長期シミュレーションを実行するのに有効であることを示した。
論文 参考訳(メタデータ) (2021-06-09T20:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。