論文の概要: Multifidelity Deep Operator Networks
- arxiv url: http://arxiv.org/abs/2204.09157v1
- Date: Tue, 19 Apr 2022 23:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 00:46:08.048103
- Title: Multifidelity Deep Operator Networks
- Title(参考訳): 多要素深部演算子ネットワーク
- Authors: Amanda A. Howard, Mauro Perego, George E. Karniadakis, Panos Stinis
- Abstract要約: 本稿では,異なるレベルの忠実度を持つ2つのデータセットを用いて学習するための複合Deep Operator Network(DeepONet)を提案する。
我々は,DeepONetsを用いた物理インフォームドラーニングの予測を改善するために,低忠実度データが存在することを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning for complex nonlinear operators is increasingly common in
modeling physical systems. However, training machine learning methods to learn
such operators requires a large amount of expensive, high-fidelity data. In
this work, we present a composite Deep Operator Network (DeepONet) for learning
using two datasets with different levels of fidelity, to accurately learn
complex operators when sufficient high-fidelity data is not available.
Additionally, we demonstrate that the presence of low-fidelity data can improve
the predictions of physics-informed learning with DeepONets.
- Abstract(参考訳): 複素非線形作用素に対する演算子学習は、物理系のモデリングにおいてますます一般的である。
しかし,そのような演算子を学習するためには,大量の高忠実度データを必要とする。
本研究では,異なるレベルの忠実度を持つ2つのデータセットを用いて学習を行うための複合Deep Operator Network(DeepONet)を提案し,十分な高忠実度データが得られない場合に複雑な演算子を正確に学習する。
さらに,低忠実度データの存在は,deeponetsを用いた物理形学習の予測を改善できることを実証する。
関連論文リスト
- Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Knowledge-based Deep Learning for Modeling Chaotic Systems [7.075125892721573]
本稿では,極端事象とその力学を考察し,知識ベースディープラーニング(KDL)と呼ばれる,深層ニューラルネットワークに基づくモデルを提案する。
提案するKDLは,実データとシミュレーションデータとの協調学習により,カオスシステムを管理する複雑なパターンを学習することができる。
我々は,エルニーニョ海表面温度,サンフアン・デング熱感染,ブヨルノヤ日降水という3つの実世界のベンチマークデータセットを用いて,我々のモデルを検証した。
論文 参考訳(メタデータ) (2022-09-09T11:46:25Z) - Multi-fidelity wavelet neural operator with application to uncertainty
quantification [0.0]
我々は,多要素データセットから学習可能なウェーブレットニューラル演算子に基づく新しいフレームワークを開発した。
フレームワークの優れた学習能力は、異なる問題を解決することで実証される。
論文 参考訳(メタデータ) (2022-08-11T02:03:30Z) - Multifidelity deep neural operators for efficient learning of partial
differential equations with application to fast inverse design of nanoscale
heat transport [2.512625172084287]
深部演算子ネットワーク(DeepONet)に基づく多要素ニューラル演算子の開発
多重忠実度DeepONetは、要求される高忠実度データの量を大幅に削減し、同じ量の高忠実度データを使用する場合の1桁の誤差を1桁小さくする。
ナノスケール熱輸送を計算するためのフレームワークであるフォノンボルツマン輸送方程式 (BTE) の学習に多要素DeepONetを適用した。
論文 参考訳(メタデータ) (2022-04-14T01:01:24Z) - Bi-fidelity Modeling of Uncertain and Partially Unknown Systems using
DeepONets [0.0]
本稿では,複雑な物理系に対する双方向モデリング手法を提案する。
我々は、小さなトレーニングデータセットが存在する場合、真のシステムの応答と低忠実度応答の相違をモデル化する。
パラメトリック不確実性を持ち、部分的には未知なモデルシステムにアプローチを適用する。
論文 参考訳(メタデータ) (2022-04-03T05:30:57Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z) - Multi-Agent Semi-Siamese Training for Long-tail and Shallow Face
Learning [54.13876727413492]
多くの現実世界の顔認識シナリオでは、トレーニングデータセットの深さは浅いため、IDごとに2つの顔画像しか利用できません。
非均一なサンプルの増加により、このような問題はより一般的なケース、すなわち長い尾の顔学習に変換される。
これらの問題に対処するために,マルチエージェントセミシアントレーニング(masst)という高度なソリューションを導入する。
広範な実験と比較は、長い尾と浅い顔学習のためのMASSTの利点を示しています。
論文 参考訳(メタデータ) (2021-05-10T04:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。