論文の概要: Operator Learning Framework for Digital Twin and Complex Engineering
Systems
- arxiv url: http://arxiv.org/abs/2301.06701v2
- Date: Wed, 18 Jan 2023 07:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 12:03:10.969889
- Title: Operator Learning Framework for Digital Twin and Complex Engineering
Systems
- Title(参考訳): デジタル双対・複雑工学システムのための演算子学習フレームワーク
- Authors: Kazuma Kobayashi, James Daniell, Syed B. Alam
- Abstract要約: ニューラル演算子ネットワーク(英: Neural Operator Networks、ONets)は、偏微分方程式(PDE)の解を近似するための「より高速なサロゲート」として開発された機械学習アルゴリズムである。
オネットはユニバーサル近似定理を用いて有限次元の入力を分岐トランクアーキテクチャを用いて無限次元空間にマッピングする。
1次元常微分方程式 (ODE) や一般拡散系, 対流拡散系 (Burger) など, 演算子近似のためのオネットを用いた3つのテストケースの評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With modern computational advancements and statistical analysis methods,
machine learning algorithms have become a vital part of engineering modeling.
Neural Operator Networks (ONets) is an emerging machine learning algorithm as a
"faster surrogate" for approximating solutions to partial differential
equations (PDEs) due to their ability to approximate mathematical operators
versus the direct approximation of Neural Networks (NN). ONets use the
Universal Approximation Theorem to map finite-dimensional inputs to
infinite-dimensional space using the branch-trunk architecture, which encodes
domain and feature information separately before using a dot product to combine
the information. ONets are expected to occupy a vital niche for surrogate
modeling in physical systems and Digital Twin (DT) development. Three test
cases are evaluated using ONets for operator approximation, including a
1-dimensional ordinary differential equations (ODE), general diffusion system,
and convection-diffusion (Burger) system. Solutions for ODE and diffusion
systems yield accurate and reliable results (R2>0.95), while solutions for
Burger systems need further refinement in the ONet algorithm.
- Abstract(参考訳): 現代の計算技術の進歩と統計解析手法により、機械学習アルゴリズムはエンジニアリングモデリングの重要な部分となっている。
ニューラルネットワーク(neural operator networks, onets)は、偏微分方程式(pdes)に対する解を近似するための"より高速なサロゲート(faster surrogate)"としての新たな機械学習アルゴリズムである。
onets は有限次元入力を無限次元空間に写像する普遍近似定理(universal approximation theorem)を用いる。
onetsは物理システムとデジタルツイン(dt)開発におけるサロゲートモデリングの重要なニッチを占めることが期待されている。
1次元常微分方程式 (ODE) や一般拡散系, 対流拡散系 (Burger) など, 演算子近似のためのオネットを用いた3つのテストケースの評価を行った。
ODEと拡散システムの解は正確で信頼性の高い結果(R2>0.95)を得る一方、バーガーシステムの解はONetアルゴリズムのさらなる改良が必要である。
関連論文リスト
- PICL: Physics Informed Contrastive Learning for Partial Differential
Equations [8.430481660019451]
一般化されたコントラスト的損失を利用した新しいコントラスト的事前学習フレームワークを開発した。
物理インフォームドコントラストプレトレーニングは、固定未来タスクにおけるフーリエニューラル演算子の精度と一般化の両方を改善する。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Differentiable Visual Computing for Inverse Problems and Machine
Learning [27.45555082573493]
ビジュアルコンピューティング手法は、幾何学を解析し、固体、流体、その他の媒体を物理的にシミュレートし、光学技術で世界をレンダリングするために用いられる。
ディープラーニング(DL)は、一般的なアルゴリズムモデルの構築を可能にする。
DLは高度にパラメータ化されたニューラルネットワークアーキテクチャ -- ユニバーサル関数近似器 -- と勾配に基づく検索アルゴリズムによって実現されている。
論文 参考訳(メタデータ) (2023-11-21T23:02:58Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Slow Invariant Manifolds of Singularly Perturbed Systems via
Physics-Informed Machine Learning [0.0]
特異摂動系の遅い不変多様体(SIM)を近似するための物理インフォームド・機械学習(PIML)手法を提案する。
提案手法では,従来のGSPT法よりも精度の高い近似法が提案されている。
また、学習過程において必要となる微分の記号的、自動的、数値的近似の計算コストの比較を行う。
論文 参考訳(メタデータ) (2023-09-14T14:10:22Z) - DOSnet as a Non-Black-Box PDE Solver: When Deep Learning Meets Operator
Splitting [12.655884541938656]
我々はDeep Operator-Splitting Network (DOSnet) と名付けた学習型PDEソルバを開発した。
DOSnetは物理規則から構築され、基礎となるダイナミクスを管理する演算子は学習可能なパラメータを含む。
我々は、演算子分解可能な微分方程式のいくつかのタイプでそれを訓練し、検証する。
論文 参考訳(メタデータ) (2022-12-11T18:23:56Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Unsupervised Legendre-Galerkin Neural Network for Stiff Partial
Differential Equations [9.659504024299896]
本稿では,Regendre-Galerkinニューラルネットワークに基づく教師なし機械学習アルゴリズムを提案する。
提案したニューラルネットワークは、境界層挙動を有する特異摂動PDEと同様に、一般的な1Dおよび2DPDEに適用される。
論文 参考訳(メタデータ) (2022-07-21T00:47:47Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。