論文の概要: A Resolution Independent Neural Operator
- arxiv url: http://arxiv.org/abs/2407.13010v3
- Date: Tue, 10 Dec 2024 05:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:34:25.291453
- Title: A Resolution Independent Neural Operator
- Title(参考訳): 分解能独立型ニューラル演算子
- Authors: Bahador Bahmani, Somdatta Goswami, Ioannis G. Kevrekidis, Michael D. Shields,
- Abstract要約: 任意のセンサ位置とカウントを持つ入力出力データから演算子を学習するための一般的なフレームワークを提案する。
暗黙的ニューラル表現としてパラメータ化された連続基底関数を適応的に学習する2つの辞書学習アルゴリズムを提案する。
これらの基底関数は入力関数データを有限次元の埋め込み空間に投影し、アーキテクチャ上の変更なしにDeepONetと互換性を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Deep Operator Network (DeepONet) is a powerful neural operator architecture that uses two neural networks to map between infinite-dimensional function spaces. This architecture allows for the evaluation of the solution field at any location within the domain but requires input functions to be discretized at identical locations, limiting practical applications. We introduce a general framework for operator learning from input-output data with arbitrary sensor locations and counts. This begins by introducing a resolution-independent DeepONet (RI-DeepONet), which handles input functions discretized arbitrarily but sufficiently finely. To achieve this, we propose two dictionary learning algorithms that adaptively learn continuous basis functions, parameterized as implicit neural representations (INRs), from correlated signals on arbitrary point clouds. These basis functions project input function data onto a finite-dimensional embedding space, making it compatible with DeepONet without architectural changes. We specifically use sinusoidal representation networks (SIRENs) as trainable INR basis functions. Similarly, the dictionary learning algorithms identify basis functions for output data, defining a new neural operator architecture: the Resolution Independent Neural Operator (RINO). In RINO, the operator learning task reduces to mapping coefficients of input basis functions to output basis functions. We demonstrate RINO's robustness and applicability in handling arbitrarily sampled input and output functions during both training and inference through several numerical examples.
- Abstract(参考訳): Deep Operator Network (DeepONet)は、2つのニューラルネットワークを使って無限次元の関数空間をマッピングする強力なニューラルネットワークアーキテクチャである。
このアーキテクチャは、ドメイン内の任意の位置における解場の評価を可能にするが、入力関数を同一の場所で識別し、実用的な応用を制限する必要がある。
任意のセンサ位置とカウントを持つ入力出力データから演算子を学習するための一般的なフレームワークを提案する。
これは、任意に識別されるが十分にきめ細かな入力関数を処理する解像度非依存のDeepONet(RI-DeepONet)の導入から始まる。
これを実現するために,任意の点雲上の相関信号から暗黙的ニューラル表現(INR)としてパラメータ化された連続基底関数を適応的に学習する2つの辞書学習アルゴリズムを提案する。
これらの基底関数は、有限次元の埋め込み空間に入力関数データを投影し、アーキテクチャ上の変更なしにDeepONetと互換性を持つ。
我々は特に、トレーニング可能なINR基底関数として正弦波表現ネットワーク(SIREN)を用いる。
同様に、辞書学習アルゴリズムは出力データの基底関数を識別し、新しいニューラル演算子アーキテクチャであるResolvion Independent Neural Operator (RINO)を定義する。
RINOでは、演算子学習タスクは入力基底関数の出力基底関数へのマッピング係数に還元される。
いくつかの数値的な例を通して、学習と推論の両方において任意のサンプル入力と出力関数を扱う上で、理能の頑健さと適用性を実証する。
関連論文リスト
- A Library for Learning Neural Operators [77.16483961863808]
我々は、演算子学習のためのオープンソースのPythonライブラリであるNeuralOperatorを紹介する。
ニューラルネットワークは有限次元ユークリッド空間の代わりに関数空間間の写像に一般化される。
PyTorch上に構築されたNeuralOperatorは、ニューラルオペレータモデルのトレーニングとデプロイのためのツールをすべて提供する。
論文 参考訳(メタデータ) (2024-12-13T18:49:37Z) - Learning Partial Differential Equations with Deep Parallel Neural Operator [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Enhanced DeepONet for Modeling Partial Differential Operators
Considering Multiple Input Functions [5.819397109258169]
偏微分方程式(PDE)に対する一般非線形連続作用素をモデル化するディープネットワーク演算子(DeepONet)が提案された。
既存のDeepONetは1つの入力関数しか受け付けないため、アプリケーションに制限がある。
本稿では、2つの入力関数を2つの分枝サブネットワークで表現する拡張DeepONetまたはEDeepONet高レベルニューラルネットワーク構造を提案する。
2つの偏微分方程式の例をモデル化した結果、提案した拡張DeepONetは約7X-17Xであり、完全に連結されたニューラルネットワークよりも約1桁精度が高いことがわかった。
論文 参考訳(メタデータ) (2022-02-17T23:58:23Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。