論文の概要: Reduced-Order Neural Operators: Learning Lagrangian Dynamics on Highly Sparse Graphs
- arxiv url: http://arxiv.org/abs/2407.03925v3
- Date: Fri, 16 May 2025 22:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:51.239406
- Title: Reduced-Order Neural Operators: Learning Lagrangian Dynamics on Highly Sparse Graphs
- Title(参考訳): 減階ニューラル演算子:高スパースグラフ上でのラグランジアンダイナミクスの学習
- Authors: Hrishikesh Viswanath, Yue Chang, Aleksey Panas, Julius Berner, Peter Yichen Chen, Aniket Bera,
- Abstract要約: 我々は,データ駆動型離散化不変フレームワークであるGIOROMについて,低次モデリング(ROM)によるラグランジアンシミュレーションを高速化する。
我々は、PDEソリューション演算子のデータ駆動グラフに基づくニューラル近似を利用する。
GIOROMは6.6$times$-32$times$の入力次元の縮小を実現し、多様なラグランジアン体制における高忠実度再構成を維持している。
- 参考スコア(独自算出の注目度): 19.1312659245072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulating complex physical systems governed by Lagrangian dynamics often requires solving partial differential equations (PDEs) over high-resolution spatial domains, resulting in substantial computational costs. We present GIOROM (\textit{G}raph \textit{I}nf\textit{O}rmed \textit{R}educed \textit{O}rder \textit{M}odeling), a data-driven discretization invariant framework for accelerating Lagrangian simulations through reduced-order modeling (ROM). Previous discretization invariant ROM approaches rely on PDE time-steppers for spatiotemporally evolving low-dimensional reduced-order latent states. Instead, we leverage a data-driven graph-based neural approximation of the PDE solution operator. This operator estimates point-wise function values from a sparse set of input observations, reducing reliance on known governing equations of numerical solvers. Order reduction is achieved by embedding these point-wise estimates within the reduced-order latent space using a learned kernel parameterization. This latent representation enables the reconstruction of the solution at arbitrary spatial query points by evolving latent variables over local neighborhoods on the solution manifold, using the kernel. Empirically, GIOROM achieves a 6.6$\times$-32$\times$ reduction in input dimensionality while maintaining high-fidelity reconstructions across diverse Lagrangian regimes including fluid flows, granular media, and elastoplastic dynamics. The resulting framework enables learnable, data-driven and discretization-invariant order-reduction with reduced reliance on analytical PDE formulations. Our code is at \href{https://github.com/HrishikeshVish/GIOROM}{https://github.com/HrishikeshVish/GIOROM}
- Abstract(参考訳): ラグランジアン力学によって支配される複雑な物理系をシミュレートするには、高分解能空間領域上の偏微分方程式(PDE)を解く必要があり、計算コストは相当である。
GIOROM(\textit{G}raph \textit{I}nf\textit{O}rmed \textit{R}educed \textit{O}rder \textit{M}odeling)はラグランジアンシミュレーションをROM(reduce-order modeling)により加速するためのデータ駆動離散化不変フレームワークである。
事前の離散化不変ROMアプローチは、時空間的に発展する低次元低次潜在状態に対するPDEタイムステッパーに依存している。
代わりに、PDEソリューション演算子のデータ駆動グラフに基づくニューラル近似を利用する。
この演算子は、入力観測のスパース集合からポイントワイズ関数値を推定し、数値解法の既知の支配方程式への依存を減らす。
次数縮小は、これらの点推定を学習されたカーネルパラメータ化を用いて減階潜在空間に埋め込むことによって達成される。
この潜在表現は、カーネルを用いて、解多様体上の局所近傍上の潜在変数を進化させることにより、任意の空間的クエリポイントでの解の再構成を可能にする。
実験的に、GIOROMは流体流動、粒状媒体、弾塑性力学を含む多種多様なラグランジアン体制における高忠実度再構成を維持しながら、入力次元の減少を6.6$\times$-32$\times$で達成している。
結果として得られるフレームワークは、解析的PDEの定式化への依存を減らし、学習可能、データ駆動、離散化不変な順序推論を可能にする。
我々のコードは \href{https://github.com/HrishikeshVish/GIOROM}{https://github.com/HrishikeshVish/GIOROM} にある。
関連論文リスト
- Learning Effective Dynamics across Spatio-Temporal Scales of Complex Flows [4.798951413107239]
本稿では,グラフニューラルネットワーク(GNN)とアテンションに基づく自己回帰モデルを活用したグラフベース効果的ダイナミクス学習(Graph-LED)を提案する。
本研究では,シリンダーを過ぎる流れや,レイノルズ数の範囲の後方方向のステップを流れる流れなど,流体力学の一連の問題に対する提案手法を評価する。
論文 参考訳(メタデータ) (2025-02-11T22:14:30Z) - Equation-informed data-driven identification of flow budgets and dynamics [0.0]
本稿では,フロークラスタリングのための新しいハイブリッド手法を提案する。
それは、方程式に基づく特徴を持つシステムの各サンプルポイントを特徴づけることから成り立っている。
このアルゴリズムは、EulerianフレームワークとLagrangianフレームワークの両方で実装されている。
論文 参考訳(メタデータ) (2024-11-14T15:59:41Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Tensor network reduced order models for wall-bounded flows [0.0]
縮小順序モデルを開発するために,広く適用可能なテンソルネットワークベースのフレームワークを提案する。
二つの空間次元における非圧縮性ナビエ・ストークス方程式と蓋駆動キャビティを考える。
論文 参考訳(メタデータ) (2023-03-06T10:33:00Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Losing momentum in continuous-time stochastic optimisation [42.617042045455506]
運動量に基づく最適化アルゴリズムは 特に広まりました
本研究では、運動量を伴う勾配降下の連続時間モデルを解析する。
また、画像分類問題において畳み込みニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2022-09-08T10:46:05Z) - Hyperbolic Variational Graph Neural Network for Modeling Dynamic Graphs [77.33781731432163]
我々は,ノード表現の推論を目的とした双曲空間における動的グラフ表現を初めて学習する。
本稿では,HVGNNと呼ばれる新しいハイパーボリック変動グラフネットワークを提案する。
特に,動力学をモデル化するために,理論的に接地した時間符号化手法に基づく時間gnn(tgnn)を導入する。
論文 参考訳(メタデータ) (2021-04-06T01:44:15Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。