論文の概要: Enhanced DeepONet for Modeling Partial Differential Operators
Considering Multiple Input Functions
- arxiv url: http://arxiv.org/abs/2202.08942v1
- Date: Thu, 17 Feb 2022 23:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:53:56.332980
- Title: Enhanced DeepONet for Modeling Partial Differential Operators
Considering Multiple Input Functions
- Title(参考訳): 複数入力関数を考慮した部分微分演算子モデリングのための拡張DeepONet
- Authors: Lesley Tan and Liang Chen
- Abstract要約: 偏微分方程式(PDE)に対する一般非線形連続作用素をモデル化するディープネットワーク演算子(DeepONet)が提案された。
既存のDeepONetは1つの入力関数しか受け付けないため、アプリケーションに制限がある。
本稿では、2つの入力関数を2つの分枝サブネットワークで表現する拡張DeepONetまたはEDeepONet高レベルニューラルネットワーク構造を提案する。
2つの偏微分方程式の例をモデル化した結果、提案した拡張DeepONetは約7X-17Xであり、完全に連結されたニューラルネットワークよりも約1桁精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 5.819397109258169
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine learning, especially deep learning is gaining much attention due to
the breakthrough performance in various cognitive applications. Recently,
neural networks (NN) have been intensively explored to model partial
differential equations as NN can be viewed as universal approximators for
nonlinear functions. A deep network operator (DeepONet) architecture was
proposed to model the general non-linear continuous operators for partial
differential equations (PDE) due to its better generalization capabilities than
existing mainstream deep neural network architectures. However, existing
DeepONet can only accept one input function, which limits its application. In
this work, we explore the DeepONet architecture to extend it to accept two or
more input functions. We propose new Enhanced DeepONet or EDeepONet high-level
neural network structure, in which two input functions are represented by two
branch DNN sub-networks, which are then connected with output truck network via
inner product to generate the output of the whole neural network. The proposed
EDeepONet structure can be easily extended to deal with multiple input
functions. Our numerical results on modeling two partial differential equation
examples shows that the proposed enhanced DeepONet is about 7X-17X or about one
order of magnitude more accurate than the fully connected neural network and is
about 2X-3X more accurate than a simple extended DeepONet for both training and
test.
- Abstract(参考訳): 機械学習、特にディープラーニングは、様々な認知アプリケーションにおけるブレークスルーのパフォーマンスのために注目されている。
近年、ニューラルネットワーク(NN)は偏微分方程式をモデル化するために集中的に研究されており、非線形関数の普遍近似器と見なすことができる。
偏微分方程式(pde)に対する一般的な非線形連続作用素をモデル化するために、ディープ・ネットワーク・オペレータ(deeponet)アーキテクチャが提案されている。
しかし、既存のdeeponetは1つの入力関数しか受け入れず、アプリケーションを制限することができる。
本研究では,2つ以上の入力関数を受け入れるように拡張するDeepONetアーキテクチャについて検討する。
本稿では,2つの入力関数を2つのブランチDNNサブネットワークで表現し,内部積を介して出力トラックネットワークに接続して,ニューラルネットワーク全体の出力を生成する,拡張DeepONetまたはEDeepONetハイレベルニューラルネットワーク構造を提案する。
提案するEDeepONet構造は,複数の入力関数を扱うために容易に拡張できる。
2つの偏微分方程式の例をモデル化した結果,提案する拡張deeponetは,完全連結ニューラルネットワークよりも約7x-17xあるいは約1桁精度が高く,トレーニングとテストの両方において単純な拡張deeponetよりも約2x-3倍精度が高いことがわかった。
関連論文リスト
- A Resolution Independent Neural Operator [0.0]
我々は、DeepONetを非依存にするためのフレームワークを提供するRINOを紹介します。
RINOにより、DeepONetは任意に、しかし十分に微妙に識別された入力関数を処理できる。
任意の(しかし十分にリッチな)サンプル入力および出力関数の処理におけるRINOの堅牢性と適用性を示す。
論文 参考訳(メタデータ) (2024-07-17T21:03:21Z) - From Alexnet to Transformers: Measuring the Non-linearity of Deep Neural Networks with Affine Optimal Transport [32.39176908225668]
本稿では,DNNの非線形性シグネチャの概念を紹介する。これはディープニューラルネットワークの非線形性を測定するための,理論上初めての音響解である。
提案した非線形署名の実用性を明らかにするための実験結果について述べる。
論文 参考訳(メタデータ) (2023-10-17T17:50:22Z) - Do deep neural networks have an inbuilt Occam's razor? [1.1470070927586016]
構造データとOccam's razor-likeインダクティブバイアスが組み合わさった単純な関数に対する構造データは、複雑さを伴う関数の指数的成長に反することを示す。
この分析により、構造データと(コルモゴロフ)単純関数に対するOccam's razor-likeインダクティブバイアスが組み合わさって、複雑さを伴う関数の指数的成長に対抗できるほど強いことがDNNの成功の鍵であることが明らかになった。
論文 参考訳(メタデータ) (2023-04-13T16:58:21Z) - Improved generalization with deep neural operators for engineering systems: Path towards digital twin [0.4551615447454769]
我々は,ブランチ/トランクアーキテクチャを用いた Onets 実装である Deep Operator Networks (DeepONets) の性能評価を行った。
DeepONets は解演算子を正確に学習することができ、ODE および拡散問題に対して 0.96 以上の予測精度のスコアを得ることができる。
さらに、目に見えないシナリオ(ゼロショットの特徴)で評価すると、訓練されたモデルは優れた一般化能力を示す。
論文 参考訳(メタデータ) (2023-01-17T04:57:31Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - MultiAuto-DeepONet: A Multi-resolution Autoencoder DeepONet for
Nonlinear Dimension Reduction, Uncertainty Quantification and Operator
Learning of Forward and Inverse Stochastic Problems [12.826754199680474]
本稿では,微分方程式(SDE)の演算子学習のための新しいデータ駆動手法を提案する。
中心的な目標は、限られたデータを使ってより効果的に前方および逆問題を解決することである。
論文 参考訳(メタデータ) (2022-04-07T03:53:49Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。