論文の概要: A Physics-Guided Bi-Fidelity Fourier-Featured Operator Learning
Framework for Predicting Time Evolution of Drag and Lift Coefficients
- arxiv url: http://arxiv.org/abs/2311.03639v1
- Date: Tue, 7 Nov 2023 00:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 17:13:16.298445
- Title: A Physics-Guided Bi-Fidelity Fourier-Featured Operator Learning
Framework for Predicting Time Evolution of Drag and Lift Coefficients
- Title(参考訳): ドラグ・リフト係数の時間進化予測のための物理誘導二要素フーリエ機能演算子学習フレームワーク
- Authors: Amirhossein Mollaali, Izzet Sahin, Iqrar Raza, Christian Moya,
Guillermo Paniagua, Guang Lin
- Abstract要約: 本稿では,訓練に限られた高忠実度データセットを必要とする深層演算子学習フレームワークを提案する。
本稿では,低・高忠実なデータセットを効果的に組み合わせた物理誘導型二忠実なFourier-Featured Deep Operator Network (DeepONet) フレームワークを提案する。
我々は,リフトおよびドラッグ係数の時間軌道を予測することを目的とした,よく知られた2次元ベンチマークシリンダー問題を用いて,我々のアプローチを検証する。
- 参考スコア(独自算出の注目度): 4.584598411021565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the pursuit of accurate experimental and computational data while
minimizing effort, there is a constant need for high-fidelity results. However,
achieving such results often requires significant computational resources. To
address this challenge, this paper proposes a deep operator learning-based
framework that requires a limited high-fidelity dataset for training. We
introduce a novel physics-guided, bi-fidelity, Fourier-featured Deep Operator
Network (DeepONet) framework that effectively combines low and high-fidelity
datasets, leveraging the strengths of each. In our methodology, we began by
designing a physics-guided Fourier-featured DeepONet, drawing inspiration from
the intrinsic physical behavior of the target solution. Subsequently, we train
this network to primarily learn the low-fidelity solution, utilizing an
extensive dataset. This process ensures a comprehensive grasp of the
foundational solution patterns. Following this foundational learning, the
low-fidelity deep operator network's output is enhanced using a physics-guided
Fourier-featured residual deep operator network. This network refines the
initial low-fidelity output, achieving the high-fidelity solution by employing
a small high-fidelity dataset for training. Notably, in our framework, we
employ the Fourier feature network as the Trunk network for the DeepONets,
given its proficiency in capturing and learning the oscillatory nature of the
target solution with high precision. We validate our approach using a
well-known 2D benchmark cylinder problem, which aims to predict the time
trajectories of lift and drag coefficients. The results highlight that the
physics-guided Fourier-featured deep operator network, serving as a
foundational building block of our framework, possesses superior predictive
capability for the lift and drag coefficients compared to its data-driven
counterparts.
- Abstract(参考訳): 努力を最小限に抑えつつ、正確な実験データと計算データの追求では、忠実度の高い結果が常に必要である。
しかし、そのような結果を達成するには、しばしば重要な計算資源が必要となる。
この課題に対処するため,本稿では,トレーニングに限定された高忠実度データセットを必要とする深層オペレータ学習ベースのフレームワークを提案する。
低忠実度データセットと高忠実度データセットを効果的に組み合わせ,それぞれの強みを生かした,新しい物理誘導型,双方向,フーリエ機能付き深層演算子ネットワーク(deeponet)フレームワークを提案する。
提案手法では,物理誘導型Fourier-Featured DeepONetの設計から始まり,対象解の本質的な物理的挙動からインスピレーションを得た。
その後、このネットワークをトレーニングし、広範囲なデータセットを用いて、主に低忠実度ソリューションを学習する。
このプロセスは、基礎的なソリューションパターンを包括的に把握することを保証する。
この基礎学習に続いて、低忠実度ディープオペレータネットワークの出力は物理誘導フーリエ特徴付き残差ディープオペレータネットワークを用いて強化される。
このネットワークは、初期低忠実度出力を洗練し、訓練に小さな高忠実度データセットを使用することで、高忠実度ソリューションを実現する。
特に,我々のフレームワークでは,目標解の発振特性を高精度に捉え,学習する能力から,フーリエ特徴ネットワークをdeeponetsのトランクネットワークとして採用している。
我々は,リフト係数とドラッグ係数の時間軌道予測を目的とした,よく知られた2次元ベンチマークシリンダ問題を用いて,このアプローチを検証する。
その結果,本フレームワークの基本構成要素として機能する物理誘導型フーリエ機能ディープオペレータネットワークは,データ駆動方式に比べてリフトおよびドラッグ係数の予測能力に優れていた。
関連論文リスト
- Component-based Sketching for Deep ReLU Nets [55.404661149594375]
各種タスクのためのディープネットコンポーネントに基づくスケッチ手法を開発した。
我々はディープネットトレーニングを線形経験的リスク最小化問題に変換する。
提案したコンポーネントベーススケッチは飽和関数の近似においてほぼ最適であることを示す。
論文 参考訳(メタデータ) (2024-09-21T15:30:43Z) - Efficient Training of Deep Neural Operator Networks via Randomized Sampling [0.0]
ディープオペレータネットワーク(DeepNet)は、様々な科学的・工学的応用における複雑な力学のリアルタイム予測に成功している。
本稿では,DeepONetのトレーニングを取り入れたランダムサンプリング手法を提案する。
実験の結果,訓練中にトランクネットワーク入力にランダム化を組み込むことで,DeepONetの効率性と堅牢性が向上し,複雑な物理系のモデリングにおけるフレームワークの性能向上に期待できる道筋が得られた。
論文 参考訳(メタデータ) (2024-09-20T07:18:31Z) - From Fourier to Neural ODEs: Flow Matching for Modeling Complex Systems [20.006163951844357]
ニューラル常微分方程式(NODE)を学習するためのシミュレーション不要なフレームワークを提案する。
フーリエ解析を用いて、ノイズの多い観測データから時間的および潜在的高次空間勾配を推定する。
我々の手法は、トレーニング時間、ダイナミクス予測、堅牢性の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-19T13:15:23Z) - Neural Network Pruning by Gradient Descent [7.427858344638741]
我々は,Gumbel-Softmaxテクニックを取り入れた,新しい,かつ簡単なニューラルネットワークプルーニングフレームワークを提案する。
ネットワークパラメータの0.15%しか持たないMNISTデータセット上で、高い精度を維持しながら、例外的な圧縮能力を実証する。
我々は,ディープラーニングプルーニングと解釈可能な機械学習システム構築のための,有望な新たな道を開くと信じている。
論文 参考訳(メタデータ) (2023-11-21T11:12:03Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Fourier-DeepONet: Fourier-enhanced deep operator networks for full
waveform inversion with improved accuracy, generalizability, and robustness [4.186792090302649]
FWI(Full Waveform Inversion)は、非最適化問題を解くことにより、波形データから構造情報を推測する。
そこで我々は、FWIの周波数や音源の位置を含む情報源を一般化したニューラルネットワーク(Fourier-DeepONet)を開発した。
実験により,Fourier-DeepONetはより高精度な地下構造予測を行うことができた。
論文 参考訳(メタデータ) (2023-05-26T22:17:28Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - FG-Net: Fast Large-Scale LiDAR Point CloudsUnderstanding Network
Leveraging CorrelatedFeature Mining and Geometric-Aware Modelling [15.059508985699575]
FG-Netは、Voxelizationなしで大規模ポイントクラウドを理解するための一般的なディープラーニングフレームワークです。
相関型特徴マイニングと変形性畳み込みに基づく幾何認識モデルを用いた深層畳み込みニューラルネットワークを提案する。
我々のアプローチは精度と効率の点で最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2020-12-17T08:20:09Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。