論文の概要: Multifidelity Deep Operator Networks For Data-Driven and
Physics-Informed Problems
- arxiv url: http://arxiv.org/abs/2204.09157v2
- Date: Tue, 21 Nov 2023 05:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 06:03:25.515286
- Title: Multifidelity Deep Operator Networks For Data-Driven and
Physics-Informed Problems
- Title(参考訳): データ駆動型および物理形問題に対する多元的深層作用素ネットワーク
- Authors: Amanda A. Howard, Mauro Perego, George E. Karniadakis, Panos Stinis
- Abstract要約: 本稿では,異なるレベルの忠実度を持つ2つのデータセットを用いて学習するための複合Deep Operator Network(DeepONet)を提案する。
グリーンランドのフンボルト氷河の氷床力学をモデル化するなど,様々な例で新しい多面体トレーニングを実演する。
- 参考スコア(独自算出の注目度): 0.9999629695552196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Operator learning for complex nonlinear systems is increasingly common in
modeling multi-physics and multi-scale systems. However, training such
high-dimensional operators requires a large amount of expensive, high-fidelity
data, either from experiments or simulations. In this work, we present a
composite Deep Operator Network (DeepONet) for learning using two datasets with
different levels of fidelity to accurately learn complex operators when
sufficient high-fidelity data is not available. Additionally, we demonstrate
that the presence of low-fidelity data can improve the predictions of
physics-informed learning with DeepONets. We demonstrate the new multi-fidelity
training in diverse examples, including modeling of the ice-sheet dynamics of
the Humboldt glacier, Greenland, using two different fidelity models and also
using the same physical model at two different resolutions.
- Abstract(参考訳): 複素非線形システムの作用素学習は、多物理系や多スケール系のモデリングにおいてますます一般的である。
しかし、そのような高次元演算子の訓練には、実験やシミュレーションから、大量の高価な高忠実度データが必要である。
本研究では,異なる忠実度レベルを持つ2つのデータセットを用いて,十分な忠実度データが得られない場合に複雑な演算子を正確に学習する複合深層演算子ネットワーク(deeponet)を提案する。
さらに,低忠実度データの存在は,deeponetsを用いた物理形学習の予測を改善できることを実証する。
本研究では,グリーンランドのハンボルト氷河の氷床ダイナミクスのモデリング,2つの異なるフィデリティモデルの利用,および2つの異なる解像度での同じ物理モデルの使用など,多彩な例で新たな多元性トレーニングを実演する。
関連論文リスト
- A Multi-Fidelity Graph U-Net Model for Accelerated Physics Simulations [1.2430809884830318]
本稿では,GNNモデルの性能向上のための多元性手法の利点を生かした,新しいGNNアーキテクチャであるMulti-Fidelity U-Netを提案する。
提案手法は精度とデータ要求において有意に優れた性能を示すことを示す。
また,提案アーキテクチャの高速バージョンであるMulti-Fidelity U-Net Liteを35%高速化し,精度を2~5%削減した。
論文 参考訳(メタデータ) (2024-12-19T20:09:38Z) - Bond Graphs for multi-physics informed Neural Networks for multi-variate time series [6.775534755081169]
既存の手法は複雑な多分野・多領域現象のタスクには適用されない。
タスク固有モデルに入力可能な多物理インフォームド表現を生成するニューラルボンドグラフ(NBgE)を提案する。
論文 参考訳(メタデータ) (2024-05-22T12:30:25Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Multi-fidelity wavelet neural operator with application to uncertainty
quantification [0.0]
我々は,多要素データセットから学習可能なウェーブレットニューラル演算子に基づく新しいフレームワークを開発した。
フレームワークの優れた学習能力は、異なる問題を解決することで実証される。
論文 参考訳(メタデータ) (2022-08-11T02:03:30Z) - Bi-fidelity Modeling of Uncertain and Partially Unknown Systems using
DeepONets [0.0]
本稿では,複雑な物理系に対する双方向モデリング手法を提案する。
我々は、小さなトレーニングデータセットが存在する場合、真のシステムの応答と低忠実度応答の相違をモデル化する。
パラメトリック不確実性を持ち、部分的には未知なモデルシステムにアプローチを適用する。
論文 参考訳(メタデータ) (2022-04-03T05:30:57Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。