論文の概要: Representation Equivalent Neural Operators: a Framework for Alias-free
Operator Learning
- arxiv url: http://arxiv.org/abs/2305.19913v2
- Date: Thu, 2 Nov 2023 14:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 17:33:52.074725
- Title: Representation Equivalent Neural Operators: a Framework for Alias-free
Operator Learning
- Title(参考訳): Representation Equivalent Neural Operators: Alias-free Operator Learningのためのフレームワーク
- Authors: Francesca Bartolucci and Emmanuel de B\'ezenac and Bogdan Raoni\'c and
Roberto Molinaro and Siddhartha Mishra and Rima Alaifari
- Abstract要約: この研究は、Representation equivalent Neural Operators (ReNO) フレームワークによるニューラル演算子に対する新たな取り組みを提供する。
中心となるのは演算子エイリアスの概念であり、これは神経演算子とその離散表現の不整合を測定する。
我々の研究結果は、異なる離散化やグリッドを扱う際にエイリアシングがエラーを発生させ、重要な連続構造が失われることについて詳述している。
- 参考スコア(独自算出の注目度): 11.11883703395469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, operator learning, or learning mappings between
infinite-dimensional function spaces, has garnered significant attention,
notably in relation to learning partial differential equations from data.
Conceptually clear when outlined on paper, neural operators necessitate
discretization in the transition to computer implementations. This step can
compromise their integrity, often causing them to deviate from the underlying
operators. This research offers a fresh take on neural operators with a
framework Representation equivalent Neural Operators (ReNO) designed to address
these issues. At its core is the concept of operator aliasing, which measures
inconsistency between neural operators and their discrete representations. We
explore this for widely-used operator learning techniques. Our findings detail
how aliasing introduces errors when handling different discretizations and
grids and loss of crucial continuous structures. More generally, this framework
not only sheds light on existing challenges but, given its constructive and
broad nature, also potentially offers tools for developing new neural
operators.
- Abstract(参考訳): 近年、無限次元関数空間間の学習写像である演算子学習は、特にデータから偏微分方程式を学習することに関して大きな注目を集めている。
概念的には、論文に概説すると、ニューラルネットワークはコンピュータ実装への移行において離散化を必要とする。
このステップは、それらの整合性を妥協し、しばしば基礎となる演算子から逸脱させる。
この研究は、これらの問題に対処するために設計されたフレームワークRepresentation equivalent Neural Operators (ReNO)を用いて、ニューラル演算子に新たな視点を提供する。
その核となる概念は、ニューラルネットワークとその離散表現の間の矛盾を測定する演算子エイリアシングである。
我々は,広範に使用されているオペレーター学習手法について検討する。
今回の発見は,異なる離散化やグリッドを扱う際にエイリアシングがいかにエラーをもたらすか,重要な連続構造を失うかを詳述する。
より一般的に、このフレームワークは既存の課題に光を当てるだけでなく、建設的で幅広い性質から、新しいニューラル演算子を開発するためのツールも提供する可能性がある。
関連論文リスト
- Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - In-Context Operator Learning with Data Prompts for Differential Equation
Problems [12.61842281581773]
本稿では、新しいニューラルネットワークベースのアプローチ、すなわちIn-Context Operator Networks (ICON)を紹介する。
ICONは、トリガーされたデータから演算子を同時に学習し、推論段階で新しい質問に適用する。
数値計算の結果,多変量微分方程式問題に対する数発の演算子学習器としてのニューラルネットワークの機能を示す。
論文 参考訳(メタデータ) (2023-04-17T05:22:26Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。