論文の概要: Convolutional Neural Operators
- arxiv url: http://arxiv.org/abs/2302.01178v1
- Date: Thu, 2 Feb 2023 15:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 13:25:36.757153
- Title: Convolutional Neural Operators
- Title(参考訳): 畳み込み型ニューラル演算子
- Authors: Bogdan Raoni\'c, Roberto Molinaro, Tobias Rohner, Siddhartha Mishra,
Emmanuel de Bezenac
- Abstract要約: 畳み込みニューラルネットワークは入力や出力として関数を処理可能であることを示す。
結果として得られたアーキテクチャは、畳み込みニューラル演算子(CNOs)と呼ばれ、ベンチマーク実験において競合するモデルよりも大幅に優れていることが示されている。
- 参考スコア(独自算出の注目度): 5.249805590164902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although very successfully used in machine learning, convolution based neural
network architectures -- believed to be inconsistent in function space -- have
been largely ignored in the context of learning solution operators of PDEs.
Here, we adapt convolutional neural networks to demonstrate that they are
indeed able to process functions as inputs and outputs. The resulting
architecture, termed as convolutional neural operators (CNOs), is shown to
significantly outperform competing models on benchmark experiments, paving the
way for the design of an alternative robust and accurate framework for learning
operators.
- Abstract(参考訳): 機械学習では非常に成功したが、畳み込みベースのニューラルネットワークアーキテクチャ(関数空間では一貫性がないと考えられている)は、pdesの学習ソリューションオペレーターの文脈で無視されている。
ここでは畳み込みニューラルネットワークを用いて,関数をインプットやアウトプットとして処理できることを実証する。
結果として得られたアーキテクチャは畳み込みニューラルネットワーク(convolutional neural operators, cnos)と呼ばれ、ベンチマーク実験で競合するモデルを大幅に上回っており、学習オペレーターのための代替ロバストで正確なフレームワークの設計の道筋を示している。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - GIT-Net: Generalized Integral Transform for Operator Learning [58.13313857603536]
本稿では、部分微分方程式(PDE)演算子を近似するディープニューラルネットワークアーキテクチャであるGIT-Netを紹介する。
GIT-Netは、PDEを定義するためによく使われる微分作用素が、特殊機能基底で表現されるときに、しばしば同義的に表現されるという事実を利用する。
数値実験により、GIT-Netは競争力のあるニューラルネットワーク演算子であり、様々なPDE問題に対して小さなテストエラーと低い評価を示すことが示された。
論文 参考訳(メタデータ) (2023-12-05T03:03:54Z) - A foundational neural operator that continuously learns without
forgetting [1.0878040851638]
本稿では,科学計算の基礎モデルとしてNeural Combinatorial Wavelet Neural Operator (NCWNO) の概念を紹介する。
NCWNOは、物理学の様々なスペクトルから学習し、パラメトリック偏微分方程式(PDE)に関連する解作用素に継続的に適応するように特別に設計されている。
提案した基礎モデルには、2つの大きな利点がある: (i) 複数のパラメトリックPDEに対する解演算子を同時に学習し、 (ii) 極小調整の少ない新しいパラメトリックPDEに素早く一般化できる。
論文 参考訳(メタデータ) (2023-10-29T03:20:10Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - DOSnet as a Non-Black-Box PDE Solver: When Deep Learning Meets Operator
Splitting [12.655884541938656]
我々はDeep Operator-Splitting Network (DOSnet) と名付けた学習型PDEソルバを開発した。
DOSnetは物理規則から構築され、基礎となるダイナミクスを管理する演算子は学習可能なパラメータを含む。
我々は、演算子分解可能な微分方程式のいくつかのタイプでそれを訓練し、検証する。
論文 参考訳(メタデータ) (2022-12-11T18:23:56Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Nonlocal Kernel Network (NKN): a Stable and Resolution-Independent Deep
Neural Network [23.465930256410722]
非ローカルカーネルネットワーク(NKN)は、ディープニューラルネットワークを特徴とする解像度独立である。
NKNは、支配方程式の学習や画像の分類など、さまざまなタスクを処理できる。
論文 参考訳(メタデータ) (2022-01-06T19:19:35Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。