論文の概要: HyperDeepONet: learning operator with complex target function space
using the limited resources via hypernetwork
- arxiv url: http://arxiv.org/abs/2312.15949v1
- Date: Tue, 26 Dec 2023 08:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:32:19.510833
- Title: HyperDeepONet: learning operator with complex target function space
using the limited resources via hypernetwork
- Title(参考訳): HyperDeepONet:ハイパーネットワークによる限られたリソースを用いた複雑なターゲット関数空間を持つ学習演算子
- Authors: Jae Yong Lee, Sung Woong Cho, Hyung Ju Hwang
- Abstract要約: 本研究では,ハイパーネットワークの表現力を利用して,より少ないパラメータ集合を持つ複素演算子の学習を可能にするHyperDeepONetを提案する。
We analyze the complexity of DeepONet and conclusion that HyperDeepONet requires relatively less complexity to obtained the desired accuracy for operator learning。
- 参考スコア(独自算出の注目度): 14.93012615797081
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast and accurate predictions for complex physical dynamics are a significant
challenge across various applications. Real-time prediction on
resource-constrained hardware is even more crucial in real-world problems. The
deep operator network (DeepONet) has recently been proposed as a framework for
learning nonlinear mappings between function spaces. However, the DeepONet
requires many parameters and has a high computational cost when learning
operators, particularly those with complex (discontinuous or non-smooth) target
functions. This study proposes HyperDeepONet, which uses the expressive power
of the hypernetwork to enable the learning of a complex operator with a smaller
set of parameters. The DeepONet and its variant models can be thought of as a
method of injecting the input function information into the target function.
From this perspective, these models can be viewed as a particular case of
HyperDeepONet. We analyze the complexity of DeepONet and conclude that
HyperDeepONet needs relatively lower complexity to obtain the desired accuracy
for operator learning. HyperDeepONet successfully learned various operators
with fewer computational resources compared to other benchmarks.
- Abstract(参考訳): 複雑な物理力学の高速かつ正確な予測は、様々なアプリケーションにおいて重要な課題である。
リソース制約のあるハードウェアのリアルタイム予測は、現実世界の問題においてさらに重要である。
近年,関数空間間の非線形マッピングを学習するためのフレームワークとしてDeepONetが提案されている。
しかし、DeepONetは多くのパラメータを必要とし、学習演算子、特に複雑な(不連続あるいは非滑らかな)ターゲット関数を持つ場合、高い計算コストがかかる。
本研究では,ハイパーネットワークの表現力を利用して,より少ないパラメータ集合を持つ複素演算子の学習を可能にするHyperDeepONetを提案する。
DeepONetとその変種モデルは、入力関数情報をターゲット関数に注入する方法と考えることができる。
この観点から、これらのモデルはHyperDeepONetの特定のケースと見なすことができる。
我々はdeeponetの複雑性を分析し、ハイパーdeeponetはオペレーター学習に必要な精度を得るために、比較的低い複雑さを必要とすると結論づける。
hyperdeeponetは、他のベンチマークと比較して計算リソースが少ない様々なオペレーターをうまく学習した。
関連論文リスト
- DeepOSets: Non-Autoregressive In-Context Learning of Supervised Learning Operators [11.913853433712855]
コンテキスト内演算子学習により、トレーニングされた機械学習モデルは、さらなるトレーニングをすることなく、ユーザのプロンプトから学習することができる。
DeepOSetsはDeepSetsアーキテクチャと組み合わせることで、Deep Operator Networks(DeepONets)にコンテキスト内学習機能を追加する。
コンテキスト内演算子学習のための最初の非自動回帰モデルとして、DeepOSetsはユーザのプロンプトを並列に処理できるようにする。
論文 参考訳(メタデータ) (2024-10-11T23:07:19Z) - FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition [0.0]
ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
本稿では,Finite Basis Physics-Informed HyperDeepONet (FB-HyDON)を紹介した。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
論文 参考訳(メタデータ) (2024-09-13T21:41:59Z) - Separable Operator Networks [4.688862638563124]
演算子学習は、偏微分方程式(PDE)によって支配される複雑な物理系をモデル化するための機械学習の強力なツールとなった
本稿では,物理インフォームド演算子の学習効率を大幅に向上させる新しいフレームワークであるSepONetを紹介した。
SepONetは独立したトランクネットワークを使用して、異なる座標軸の基底関数を個別に学習する。
論文 参考訳(メタデータ) (2024-07-15T21:43:41Z) - Multifidelity deep neural operators for efficient learning of partial
differential equations with application to fast inverse design of nanoscale
heat transport [2.512625172084287]
深部演算子ネットワーク(DeepONet)に基づく多要素ニューラル演算子の開発
多重忠実度DeepONetは、要求される高忠実度データの量を大幅に削減し、同じ量の高忠実度データを使用する場合の1桁の誤差を1桁小さくする。
ナノスケール熱輸送を計算するためのフレームワークであるフォノンボルツマン輸送方程式 (BTE) の学習に多要素DeepONetを適用した。
論文 参考訳(メタデータ) (2022-04-14T01:01:24Z) - Enhanced DeepONet for Modeling Partial Differential Operators
Considering Multiple Input Functions [5.819397109258169]
偏微分方程式(PDE)に対する一般非線形連続作用素をモデル化するディープネットワーク演算子(DeepONet)が提案された。
既存のDeepONetは1つの入力関数しか受け付けないため、アプリケーションに制限がある。
本稿では、2つの入力関数を2つの分枝サブネットワークで表現する拡張DeepONetまたはEDeepONet高レベルニューラルネットワーク構造を提案する。
2つの偏微分方程式の例をモデル化した結果、提案した拡張DeepONetは約7X-17Xであり、完全に連結されたニューラルネットワークよりも約1桁精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-02-17T23:58:23Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。