論文の概要: Extending Neural Operators: Robust Handling of Functions Beyond the Training Set
- arxiv url: http://arxiv.org/abs/2603.03621v1
- Date: Wed, 04 Mar 2026 01:07:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.141364
- Title: Extending Neural Operators: Robust Handling of Functions Beyond the Training Set
- Title(参考訳): ニューラルネットワークの拡張 - トレーニングセットを越えた関数のロバスト処理
- Authors: Blaine Quackenbush, Paul J. Atzberger,
- Abstract要約: ニューラル演算子をアウト・オブ・ディストリビューション入力関数に拡張するフレームワークを開発した。
我々はカーネル近似技術を活用し、入力出力関数空間を特徴づけるための理論を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a rigorous framework for extending neural operators to handle out-of-distribution input functions. We leverage kernel approximation techniques and provide theory for characterizing the input-output function spaces in terms of Reproducing Kernel Hilbert Spaces (RKHSs). We provide theorems on the requirements for reliable extensions and their predicted approximation accuracy. We also establish formal relationships between specific kernel choices and their corresponding Sobolev Native Spaces. This connection further allows the extended neural operators to reliably capture not only function values but also their derivatives. Our methods are empirically validated through the solution of elliptic partial differential equations (PDEs) involving operators on manifolds having point-cloud representations and handling geometric contributions. We report results on key factors impacting the accuracy and computational performance of the extension approaches.
- Abstract(参考訳): ニューラル演算子をアウト・オブ・ディストリビューション入力関数に拡張するための厳密なフレームワークを開発する。
我々はカーネル近似技術を活用し、RKHS(Reproduction Kernel Hilbert Spaces)の観点から入力出力関数空間を特徴づけるための理論を提供する。
信頼性拡張の要求条件とその予測近似精度に関する定理を提供する。
また、特定のカーネル選択と対応するSobolevネイティブスペースとの間の公式な関係を確立する。
この接続により、拡張されたニューラル演算子は関数値だけでなく、その微分も確実にキャプチャできる。
本手法は, 点クラウド表現を持つ多様体上の作用素と幾何学的寄与を扱う楕円偏微分方程式 (PDE) の解を用いて実験的に検証する。
本稿では,拡張手法の精度と計算性能に影響を及ぼす要因について報告する。
関連論文リスト
- Solving Functional PDEs with Gaussian Processes and Applications to Functional Renormalization Group Equations [2.4011856828907923]
非摂動関数的再正規化群方程式を解くための演算子学習フレームワークを提案する。
我々の手法は柔軟であり、幅広い関数微分方程式に適用できる。
特に,本手法は非定常場を扱えるため,より複雑なフィールド構成の研究が期待できる。
論文 参考訳(メタデータ) (2025-12-24T05:27:20Z) - Infinite Neural Operators: Gaussian processes on functions [18.723789296695937]
本研究では、関数空間間のマッピングを学習するために設計されたモデルのクラスであるニューラル演算子(NO)にこの接続を拡張する。
ガウス分散畳み込みカーネルを持つ任意の深さNOsが関数値GPに収束する条件を示す。
PDE解演算子を含む回帰シナリオでこれらのGPの後部を計算する。
論文 参考訳(メタデータ) (2025-10-19T00:35:43Z) - Projective Kolmogorov Arnold Neural Networks (P-KANs): Entropy-Driven Functional Space Discovery for Interpretable Machine Learning [0.0]
Kolmogorov-Arnold Networks (KAN) は学習可能な非線形性をノードからエッジに移動させる。
現在のkanは、高次元スプラインパラメータ空間の冗長性に起因する基本的な非効率性に悩まされている。
本稿では,エッジ関数発見を導く新しいトレーニングフレームワークであるProjective Kolmogorov-Arnold Networks (P-KANs)を紹介する。
論文 参考訳(メタデータ) (2025-09-24T12:15:37Z) - From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems [7.807210884802377]
本稿では,カーネル設計による空間性,局所性,構造情報を活かした,新しいスケーラブルなGPOを提案する。
我々のフレームワークは、様々な離散化スケールで常に高い精度を達成できることを実証する。
論文 参考訳(メタデータ) (2025-06-18T22:40:52Z) - Extension of Symmetrized Neural Network Operators with Fractional and Mixed Activation Functions [0.0]
本稿では, 分数および混合活性化関数を組み込むことにより, 対称性を持つニューラルネットワーク演算子への新たな拡張を提案する。
本フレームワークでは、アクティベーション関数に分数指数を導入し、適応的な非線形近似を精度良く実現する。
論文 参考訳(メタデータ) (2025-01-17T14:24:25Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。