論文の概要: Multifidelity deep neural operators for efficient learning of partial
differential equations with application to fast inverse design of nanoscale
heat transport
- arxiv url: http://arxiv.org/abs/2204.06684v1
- Date: Thu, 14 Apr 2022 01:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 14:34:03.847326
- Title: Multifidelity deep neural operators for efficient learning of partial
differential equations with application to fast inverse design of nanoscale
heat transport
- Title(参考訳): 偏微分方程式の効率的な学習のための多元的深層ニューラルネットワークとナノスケール熱輸送の高速逆設計への応用
- Authors: Lu Lu, Raphael Pestourie, Steven G. Johnson, Giuseppe Romano
- Abstract要約: 深部演算子ネットワーク(DeepONet)に基づく多要素ニューラル演算子の開発
多重忠実度DeepONetは、要求される高忠実度データの量を大幅に削減し、同じ量の高忠実度データを使用する場合の1桁の誤差を1桁小さくする。
ナノスケール熱輸送を計算するためのフレームワークであるフォノンボルツマン輸送方程式 (BTE) の学習に多要素DeepONetを適用した。
- 参考スコア(独自算出の注目度): 2.512625172084287
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural operators can learn operators mapping between
infinite-dimensional function spaces via deep neural networks and have become
an emerging paradigm of scientific machine learning. However, training neural
operators usually requires a large amount of high-fidelity data, which is often
difficult to obtain in real engineering problems. Here, we address this
challenge by using multifidelity learning, i.e., learning from multifidelity
datasets. We develop a multifidelity neural operator based on a deep operator
network (DeepONet). A multifidelity DeepONet includes two standard DeepONets
coupled by residual learning and input augmentation. Multifidelity DeepONet
significantly reduces the required amount of high-fidelity data and achieves
one order of magnitude smaller error when using the same amount of
high-fidelity data. We apply a multifidelity DeepONet to learn the phonon
Boltzmann transport equation (BTE), a framework to compute nanoscale heat
transport. By combining a trained multifidelity DeepONet with genetic algorithm
or topology optimization, we demonstrate a fast solver for the inverse design
of BTE problems.
- Abstract(参考訳): ディープニューラルオペレータは、ディープニューラルネットを介して無限次元関数空間間の演算子マッピングを学習することができ、科学的機械学習の新たなパラダイムとなっている。
しかし、ニューラルネットワークの訓練は通常、大量の忠実度データを必要とするため、実際のエンジニアリング問題では取得が困難である。
本稿では,マルチフィデリティ学習,すなわちマルチフィデリティデータセットからの学習を用いて,この課題に対処する。
我々は,DeepONet(DeepONet)に基づく多要素ニューラル演算子を開発した。
マルチファイダリティのDeepONetには、残差学習と入力拡張が組み合わされた2つの標準DeepONetsが含まれている。
マルチフィデリティDeepONetは要求される高フィデリティデータの量を大幅に削減し、同じ量の高フィデリティデータを使用する場合の誤差を1桁小さくする。
ナノスケール熱輸送を計算するためのフレームワークであるフォノンボルツマン輸送方程式 (BTE) の学習に多要素DeepONetを適用した。
遺伝的アルゴリズムやトポロジ最適化を訓練したdeeponetを組み合わせることで,bte問題の逆設計のための高速解法を示す。
関連論文リスト
- DeepOSets: Non-Autoregressive In-Context Learning of Supervised Learning Operators [11.913853433712855]
コンテキスト内演算子学習により、トレーニングされた機械学習モデルは、さらなるトレーニングをすることなく、ユーザのプロンプトから学習することができる。
DeepOSetsはDeepSetsアーキテクチャと組み合わせることで、Deep Operator Networks(DeepONets)にコンテキスト内学習機能を追加する。
コンテキスト内演算子学習のための最初の非自動回帰モデルとして、DeepOSetsはユーザのプロンプトを並列に処理できるようにする。
論文 参考訳(メタデータ) (2024-10-11T23:07:19Z) - HyperDeepONet: learning operator with complex target function space
using the limited resources via hypernetwork [14.93012615797081]
本研究では,ハイパーネットワークの表現力を利用して,より少ないパラメータ集合を持つ複素演算子の学習を可能にするHyperDeepONetを提案する。
We analyze the complexity of DeepONet and conclusion that HyperDeepONet requires relatively less complexity to obtained the desired accuracy for operator learning。
論文 参考訳(メタデータ) (2023-12-26T08:28:46Z) - Deep-Unfolding for Next-Generation Transceivers [49.338084953253755]
次世代マルチインプット・マルチアウトプット(MIMO)トランシーバの定義に関する研究が進められている。
無線通信における先進トランシーバーの設計において、しばしば反復アルゴリズムにつながる最適化アプローチは大きな成功を収めた。
ディープニューラルネットワーク(DNN)で反復アルゴリズムを近似するディープラーニングは、計算時間を著しく短縮することができる。
ディープラーニングと反復アルゴリズムの両方の利点を取り入れたディープアンフォールディングが登場し、反復アルゴリズムを階層的な構造に展開している。
論文 参考訳(メタデータ) (2023-05-15T02:13:41Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Multifidelity Deep Operator Networks For Data-Driven and
Physics-Informed Problems [0.9999629695552196]
本稿では,異なるレベルの忠実度を持つ2つのデータセットを用いて学習するための複合Deep Operator Network(DeepONet)を提案する。
グリーンランドのフンボルト氷河の氷床力学をモデル化するなど,様々な例で新しい多面体トレーニングを実演する。
論文 参考訳(メタデータ) (2022-04-19T23:19:05Z) - MultiAuto-DeepONet: A Multi-resolution Autoencoder DeepONet for
Nonlinear Dimension Reduction, Uncertainty Quantification and Operator
Learning of Forward and Inverse Stochastic Problems [12.826754199680474]
本稿では,微分方程式(SDE)の演算子学習のための新しいデータ駆動手法を提案する。
中心的な目標は、限られたデータを使ってより効果的に前方および逆問題を解決することである。
論文 参考訳(メタデータ) (2022-04-07T03:53:49Z) - Enhanced DeepONet for Modeling Partial Differential Operators
Considering Multiple Input Functions [5.819397109258169]
偏微分方程式(PDE)に対する一般非線形連続作用素をモデル化するディープネットワーク演算子(DeepONet)が提案された。
既存のDeepONetは1つの入力関数しか受け付けないため、アプリケーションに制限がある。
本稿では、2つの入力関数を2つの分枝サブネットワークで表現する拡張DeepONetまたはEDeepONet高レベルニューラルネットワーク構造を提案する。
2つの偏微分方程式の例をモデル化した結果、提案した拡張DeepONetは約7X-17Xであり、完全に連結されたニューラルネットワークよりも約1桁精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-02-17T23:58:23Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。