論文の概要: Learning, Solving and Optimizing PDEs with TensorGalerkin: an efficient high-performance Galerkin assembly algorithm
- arxiv url: http://arxiv.org/abs/2602.05052v1
- Date: Wed, 04 Feb 2026 21:04:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.61905
- Title: Learning, Solving and Optimizing PDEs with TensorGalerkin: an efficient high-performance Galerkin assembly algorithm
- Title(参考訳): TensorGalerkinによるPDEの学習・解法・最適化 : 効率的な高速ガレルキン組立アルゴリズム
- Authors: Shizheng Wen, Mingyuan Chi, Tianwei Yu, Ben Moseley, Mike Yan Michelis, Pu Ren, Hao Sun, Siddhartha Mishra,
- Abstract要約: 本稿では,数値解の統一化,制約付き最適化,変分構造を持つPDEの物理インフォームド学習について述べる。
我々のフレームワークは、基礎となる変分形式のガレルキン離散化に基づいている。
- 参考スコア(独自算出の注目度): 18.650675548122912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a unified algorithmic framework for the numerical solution, constrained optimization, and physics-informed learning of PDEs with a variational structure. Our framework is based on a Galerkin discretization of the underlying variational forms, and its high efficiency stems from a novel highly-optimized and GPU-compliant TensorGalerkin framework for linear system assembly (stiffness matrices and load vectors). TensorGalerkin operates by tensorizing element-wise operations within a Python-level Map stage and then performs global reduction with a sparse matrix multiplication that performs message passing on the mesh-induced sparsity graph. It can be seamlessly employed downstream as i) a highly-efficient numerical PDEs solver, ii) an end-to-end differentiable framework for PDE-constrained optimization, and iii) a physics-informed operator learning algorithm for PDEs. With multiple benchmarks, including 2D and 3D elliptic, parabolic, and hyperbolic PDEs on unstructured meshes, we demonstrate that the proposed framework provides significant computational efficiency and accuracy gains over a variety of baselines in all the targeted downstream applications.
- Abstract(参考訳): 本稿では,数値解の統一化,制約付き最適化,変分構造を持つPDEの物理インフォームド学習について述べる。
我々のフレームワークは、基底となる変分形式のガレルキン離散化に基づいており、その高効率性は、線形システムアセンブリ(剛性行列と負荷ベクトル)のための新しい高度に最適化されたGPU準拠のTensorGalerkinフレームワークに由来する。
TensorGalerkinは、PythonレベルのMapステージ内で要素の操作をテンソル化して動作し、その後、スパースマトリクス乗算によって、メッシュ誘発のスパーシティグラフ上でメッセージパッシングを行うグローバルリダクションを実行する。
下流でもシームレスに使用できる。
一 高効率数値PDE解決器
二 PDE制約最適化のためのエンドツーエンドの差別化可能なフレームワーク
三 PDEのための物理インフォームド演算子学習アルゴリズム。
非構造化メッシュ上での2D, 3D楕円, パラボリック, 双曲型PDEを含む複数のベンチマークを用いて, 提案手法は, 対象とする下流アプリケーションすべてにおいて, 様々なベースラインに対して, 計算効率と精度の向上をもたらすことを示した。
関連論文リスト
- Tensor Gaussian Processes: Efficient Solvers for Nonlinear PDEs [16.38975732337055]
TGPSは偏微分方程式の機械学習解法である。
1次元GPの集合を学習する作業を減らす。
既存の手法に比べて精度と効率が優れている。
論文 参考訳(メタデータ) (2025-10-15T17:23:21Z) - PIG: Physics-Informed Gaussians as Adaptive Parametric Mesh Representations [5.4087282763977855]
本稿では,ガウス関数を用いた特徴埋め込みと軽量ニューラルネットワークを組み合わせた物理インフォームドガウス(PIG)を提案する。
提案手法では,各ガウス平均と分散にトレーニング可能なパラメータを用い,トレーニング中の位置と形状を動的に調整する。
実験の結果,複雑なPDEを解くための堅牢なツールとしての可能性を示した。
論文 参考訳(メタデータ) (2024-12-08T16:58:29Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - The ADMM-PINNs Algorithmic Framework for Nonsmooth PDE-Constrained Optimization: A Deep Learning Approach [1.9030954416586594]
乗算器の交互方向法(ADMM)と物理インフォームドニューラルネットワーク(PINN)の組み合わせについて検討した。
結果として得られるADMM-PINNのアルゴリズムフレームワークは、PINNの適用範囲を大幅に拡大し、PDE制約された最適化問題の非滑らかなケースに拡張する。
異なるプロトタイプアプリケーションを用いてADMM-PINNsアルゴリズムフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2023-02-16T14:17:30Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Physics-constrained Unsupervised Learning of Partial Differential
Equations using Meshes [1.066048003460524]
グラフニューラルネットワークは、不規則にメッシュ化されたオブジェクトを正確に表現し、それらのダイナミクスを学ぶことを約束する。
本研究では、メッシュをグラフとして自然に表現し、グラフネットワークを用いてそれらを処理し、物理に基づく損失を定式化し、偏微分方程式(PDE)の教師なし学習フレームワークを提供する。
本フレームワークは, ソフトボディ変形のモデルベース制御など, PDEソルバをインタラクティブな設定に適用する。
論文 参考訳(メタデータ) (2022-03-30T19:22:56Z) - Efficient Learning of Generative Models via Finite-Difference Score
Matching [111.55998083406134]
有限差分で任意の順序方向微分を効率的に近似する汎用戦略を提案する。
我々の近似は関数評価にのみ関係しており、これは並列で実行でき、勾配計算は行わない。
論文 参考訳(メタデータ) (2020-07-07T10:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。