論文の概要: INO: Invariant Neural Operators for Learning Complex Physical Systems
with Momentum Conservation
- arxiv url: http://arxiv.org/abs/2212.14365v1
- Date: Thu, 29 Dec 2022 16:40:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 15:47:42.803128
- Title: INO: Invariant Neural Operators for Learning Complex Physical Systems
with Momentum Conservation
- Title(参考訳): INO: 複雑な物理系をモメンタムで学習するための不変神経演算子
- Authors: Ning Liu, Yue Yu, Huaiqian You, Neeraj Tatikola
- Abstract要約: 基本保存法則が自動的に保証される物理モデルを学ぶために,新しい統合ニューラル演算子アーキテクチャを導入する。
応用例として、合成データセットと実験データセットの両方から複雑な物質挙動を学習する際のモデルの有効性と有効性を示す。
- 参考スコア(独自算出の注目度): 8.218875461185016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural operators, which emerge as implicit solution operators of hidden
governing equations, have recently become popular tools for learning responses
of complex real-world physical systems. Nevertheless, the majority of neural
operator applications has thus far been data-driven, which neglects the
intrinsic preservation of fundamental physical laws in data. In this paper, we
introduce a novel integral neural operator architecture, to learn physical
models with fundamental conservation laws automatically guaranteed. In
particular, by replacing the frame-dependent position information with its
invariant counterpart in the kernel space, the proposed neural operator is by
design translation- and rotation-invariant, and consequently abides by the
conservation laws of linear and angular momentums. As applications, we
demonstrate the expressivity and efficacy of our model in learning complex
material behaviors from both synthetic and experimental datasets, and show
that, by automatically satisfying these essential physical laws, our learned
neural operator is not only generalizable in handling translated and rotated
datasets, but also achieves state-of-the-art accuracy and efficiency as
compared to baseline neural operator models.
- Abstract(参考訳): 隠れ支配方程式の暗黙の解演算子として現れるニューラル演算子は、最近、複雑な現実世界の物理系の応答を学習するための一般的なツールとなっている。
それでも、これまでのニューラルオペレータアプリケーションの大部分はデータ駆動であり、データの基本物理法則の保存を無視している。
本稿では,基本保存則を自動保証した物理モデルを学ぶための,新しい積分型ニューラルネットワークアーキテクチャを提案する。
特に、フレーム依存位置情報をカーネル空間の不変量に置き換えることにより、提案したニューラル演算子は、設計上の変換不変および回転不変により、線形および角運動量の保存則に従属する。
その結果,本モデルは,合成データと実験データの両方から複雑な物質的振る舞いを学習する上での表現性と有効性を示し,本研究の学習したニューラル演算子は,翻訳データと回転データを扱うのに汎用性を持つだけでなく,ベースラインニューラルオペレータモデルと比較して最先端の精度と効率性も達成できることを示した。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Nonlocal Attention Operator: Materializing Hidden Knowledge Towards Interpretable Physics Discovery [25.75410883895742]
非局所注意演算子(NAO)を作製するアテンション機構に基づく新しいニューラル演算子アーキテクチャを提案する。
NAOは正規化を符号化し、一般化性を達成することで、逆PDE問題における不備とランク不足に対処することができる。
論文 参考訳(メタデータ) (2024-08-14T05:57:56Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - Peridynamic Neural Operators: A Data-Driven Nonlocal Constitutive Model
for Complex Material Responses [12.454290779121383]
本研究では,データから非局所法則を学習するPNO(Peridynamic Neural Operator)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このニューラル作用素は、客観性と運動量バランス法則が自動的に保証される状態ベースペリダイナミックスという形でフォワードモデルを提供する。
複雑な応答をキャプチャする能力により、学習したニューラル演算子はベースラインモデルと比較して精度と効率が向上することを示した。
論文 参考訳(メタデータ) (2024-01-11T17:37:20Z) - Harnessing the Power of Neural Operators with Automatically Encoded Conservation Laws [14.210553163356131]
保存法で符号化されたニューラル演算子(ClawNOs)を紹介する。
ClawNOsは、物理的整合性に不可欠な最も基本的でユビキタスな保存法に準拠している。
それらは、特に小規模データ体制において、学習効率において最先端のNOを著しく上回っている。
論文 参考訳(メタデータ) (2023-12-18T13:21:49Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Equivariant Graph Mechanics Networks with Constraints [83.38709956935095]
本稿では,グラフ力学ネットワーク(GMN)を提案する。
GMNは、一般化された座標により、構造体の前方運動学情報(位置と速度)を表す。
大規模な実験は、予測精度、制約満足度、データ効率の観点から、最先端のGNNと比較してGMNの利点を支持する。
論文 参考訳(メタデータ) (2022-03-12T14:22:14Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - On the application of Physically-Guided Neural Networks with Internal
Variables to Continuum Problems [0.0]
内部変数を用いた物理誘導型ニューラルネットワーク(PGNNIV)を提案する。
普遍的な物理法則は、あるニューロンの値がシステムの内部状態変数として解釈されるように、ニューラルネットワークの制約として使用される。
これにより、ネットワークの容量が拡大するだけでなく、より高速な収束、少ないデータ要求、追加のノイズフィルタリングといった予測特性も向上する。
トレーニングセットで測定可能な値のみを用いることで,予測的かつ説明的能力を示すことによって,この新たな方法論を連続的な物理問題に拡張する。
論文 参考訳(メタデータ) (2020-11-23T13:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。