論文の概要: An Attention-based Spatio-Temporal Neural Operator for Evolving Physics
- arxiv url: http://arxiv.org/abs/2506.11328v1
- Date: Thu, 12 Jun 2025 21:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.591457
- Title: An Attention-based Spatio-Temporal Neural Operator for Evolving Physics
- Title(参考訳): 注意に基づく進化物理学のための時空間ニューラル演算子
- Authors: Vispi Karkaria, Doksoo Lee, Yi-Ping Chen, Yue Yu, Wei Chen,
- Abstract要約: 機械学習の主な課題は、未知の物理プロセスを学び、実際のスケールで予測することである。
本研究では,空間的・時間的相互作用に対する注意機構を分離した新しいアーキテクチャである注意型S-Temporal Neural Operator (ASNO)を提案する。
ASNOは時間的予測のための変換器を学習し、未確認の物理的パラメータに適応し、歴史的状態の寄与による解釈可能性を高める。
- 参考スコア(独自算出の注目度): 15.451874867285957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In scientific machine learning (SciML), a key challenge is learning unknown, evolving physical processes and making predictions across spatio-temporal scales. For example, in real-world manufacturing problems like additive manufacturing, users adjust known machine settings while unknown environmental parameters simultaneously fluctuate. To make reliable predictions, it is desired for a model to not only capture long-range spatio-temporal interactions from data but also adapt to new and unknown environments; traditional machine learning models excel at the first task but often lack physical interpretability and struggle to generalize under varying environmental conditions. To tackle these challenges, we propose the Attention-based Spatio-Temporal Neural Operator (ASNO), a novel architecture that combines separable attention mechanisms for spatial and temporal interactions and adapts to unseen physical parameters. Inspired by the backward differentiation formula (BDF), ASNO learns a transformer for temporal prediction and extrapolation and an attention-based neural operator for handling varying external loads, enhancing interpretability by isolating historical state contributions and external forces, enabling the discovery of underlying physical laws and generalizability to unseen physical environments. Empirical results on SciML benchmarks demonstrate that ASNO outperforms over existing models, establishing its potential for engineering applications, physics discovery, and interpretable machine learning.
- Abstract(参考訳): 科学機械学習(SciML)では、未知の学習、物理的プロセスの進化、時空間スケールでの予測が重要な課題である。
例えば、添加物製造のような現実世界の製造業では、未知の環境パラメータが同時に変動しながら、既知のマシン設定を調整する。
信頼性の高い予測を行うためには、データから長期の時空間的相互作用をキャプチャするだけでなく、新しい未知の環境にも適応することが望まれる。
これらの課題に対処するために,空間的・時間的相互作用の分離された注意機構を結合し,未知の物理パラメータに適応する新しいアーキテクチャである,注意型時空間ニューラル演算子(ASNO)を提案する。
後方微分公式(BDF)にインスパイアされたASNOは、時間的予測と外挿のためのトランスフォーマーと、様々な外部負荷を処理する注意ベースのニューラル演算子を学び、歴史的状態のコントリビューションと外部力の分離による解釈性を高め、基礎となる物理法則の発見と、未確認の物理的環境への一般化を可能にする。
SciMLベンチマークの実証的な結果は、ASNOが既存のモデルよりも優れており、工学的応用、物理学的な発見、解釈可能な機械学習の可能性を確立していることを示している。
関連論文リスト
- ENMA: Tokenwise Autoregression for Generative Neural PDE Operators [12.314585849869797]
本稿では,物理現象から生じるダイナミクスをモデル化するための生成型ニューラルテンポラル演算子ENMAを紹介する。
ENMAは、フローマッチング損失を訓練した生成マスク付き自己回帰変換器を用いて、将来の動的圧縮潜在空間を予測する。
このフレームワークは、新しいPDEレジームに一般化され、時間依存パラメトリックPDEのワンショットサロゲートモデリングをサポートする。
論文 参考訳(メタデータ) (2025-06-06T15:25:14Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Spherical Fourier Neural Operators: Learning Stable Dynamics on the
Sphere [53.63505583883769]
球面幾何学の演算子を学習するための球面FNO(SFNO)を紹介する。
SFNOは、気候力学の機械学習に基づくシミュレーションに重要な意味を持つ。
論文 参考訳(メタデータ) (2023-06-06T16:27:17Z) - Physics-constrained deep learning postprocessing of temperature and
humidity [0.0]
深層学習に基づく後処理モデルにおける物理的整合性を実現することを提案する。
熱力学状態方程式を強制するためにニューラルネットワークを制約することは、物理的に一貫性のある予測をもたらす。
論文 参考訳(メタデータ) (2022-12-07T09:31:25Z) - Interpreting Machine Learning Models for Room Temperature Prediction in
Non-domestic Buildings [0.0]
本研究では,非住宅の室温予測を目的とした解釈可能な機械学習モデルを提案する。
提案モデルでは, 室温をリアルタイムで8時間前に正確に予測できることを実験的に実証した。
論文 参考訳(メタデータ) (2021-11-23T11:16:35Z) - On the application of Physically-Guided Neural Networks with Internal
Variables to Continuum Problems [0.0]
内部変数を用いた物理誘導型ニューラルネットワーク(PGNNIV)を提案する。
普遍的な物理法則は、あるニューロンの値がシステムの内部状態変数として解釈されるように、ニューラルネットワークの制約として使用される。
これにより、ネットワークの容量が拡大するだけでなく、より高速な収束、少ないデータ要求、追加のノイズフィルタリングといった予測特性も向上する。
トレーニングセットで測定可能な値のみを用いることで,予測的かつ説明的能力を示すことによって,この新たな方法論を連続的な物理問題に拡張する。
論文 参考訳(メタデータ) (2020-11-23T13:06:52Z) - Identification of state functions by physically-guided neural networks
with physically-meaningful internal layers [0.0]
我々は,物理系における入力-出力関係を予測するために,物理的拘束型ニューラルネットワーク(PCNN)の概念を用いる。
このアプローチは、物理的に予測されるだけでなく、トレーニングプロセスの加速を図っている。
論文 参考訳(メタデータ) (2020-11-17T11:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。