論文の概要: Neural Operators Can Discover Functional Clusters
- arxiv url: http://arxiv.org/abs/2602.23528v1
- Date: Thu, 26 Feb 2026 22:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.149455
- Title: Neural Operators Can Discover Functional Clusters
- Title(参考訳): 神経オペレーターが機能クラスタを発見できる
- Authors: Yicen Li, Jose Antonio Lara Benitez, Ruiyang Hong, Anastasis Kratsios, Paul David McNicholas, Maarten Valentijn de Hoop,
- Abstract要約: サンプルベースのニューラル作用素は無限次元再生カーネルヒルベルト空間の任意の有限個のクラスを学習できることを示す。
機能データのためのNOパワークラスタリングパイプラインを開発し、通常の微分方程式(ODE)軌道のラベルのない族に適用する。
- 参考スコア(独自算出の注目度): 9.0267232149083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Operator learning is reshaping scientific computing by amortizing inference across infinite families of problems. While neural operators (NOs) are increasingly well understood for regression, far less is known for classification and its unsupervised analogue: clustering. We prove that sample-based neural operators can learn any finite collection of classes in an infinite-dimensional reproducing kernel Hilbert space, even when the classes are neither convex nor connected, under mild kernel sampling assumptions. Our universal clustering theorem shows that any $K$ closed classes can be approximated to arbitrary precision by NO-parameterized classes in the upper Kuratowski topology on closed sets, a notion that can be interpreted as disallowing false-positive misclassifications. Building on this, we develop an NO-powered clustering pipeline for functional data and apply it to unlabeled families of ordinary differential equation (ODE) trajectories. Discretized trajectories are lifted by a fixed pre-trained encoder into a continuous feature map and mapped to soft assignments by a lightweight trainable head. Experiments on diverse synthetic ODE benchmarks show that the resulting practical SNO recovers latent dynamical structure in regimes where classical methods fail, providing evidence consistent with our universal clustering theory.
- Abstract(参考訳): 演算子学習は、無限の問題を推論することで科学計算を再構築している。
ニューラル演算子(NOs)は回帰についてますますよく理解されているが、分類や非教師なしの類似(クラスタリング)ではあまり知られていない。
サンプルベースのニューラル作用素は、級数が凸でも連結でもない場合でも、無限次元再生カーネルヒルベルト空間の有限個のクラスを、軽度のカーネルサンプリング仮定の下で学習できることを証明した。
我々の普遍クラスタリング定理は、任意の$K$閉クラスが閉集合上のクラトフスキ位相上のNOパラメータ化クラスによって任意の精度で近似できることを示している。
そこで我々は,機能データのためのNOパワークラスタリングパイプラインを開発し,通常の微分方程式(ODE)トラジェクトリのラベルのない族に適用する。
離散化された軌道は、固定された事前訓練エンコーダによって連続した特徴写像に持ち上げられ、軽量な訓練可能なヘッドによってソフトな割り当てにマッピングされる。
多様な合成ODEベンチマークの実験により、結果として生じる実用的SNOは古典的手法が失敗するレジームにおける潜在動的構造を回復し、我々の普遍的クラスタリング理論と矛盾する証拠を与えることが示された。
関連論文リスト
- Neural-POD: A Plug-and-Play Neural Operator Framework for Infinite-Dimensional Functional Nonlinear Proper Orthogonal Decomposition [7.1950116347185995]
本稿では,プラグアンドプレイ型ニューラルオペレーターフレームワークであるNeural Proper Orthogonal Decomposition(Neural-POD)を提案する。
ニューラルPODは、ニューラルネットワークのトレーニングによって解決された残差最小化問題の系列として基礎構築を定式化する。
我々は,バーガーズ方程式やナビエストークス方程式など,複雑な分解能の異なるニューラルPODのロバスト性を示す。
論文 参考訳(メタデータ) (2026-02-17T15:01:40Z) - Theory-to-Practice Gap for Neural Networks and Neural Operators [6.267574471145217]
本稿では,ReLUニューラルネットワークとニューラル演算子を用いた学習のサンプリング複雑性について検討する。
ボヒナーの$Lp$-ノルムの最良の収束速度は、モンテカルロの1/p$の速度で束縛されていることを示す。
論文 参考訳(メタデータ) (2025-03-23T21:45:58Z) - Convergence analysis of wide shallow neural operators within the framework of Neural Tangent Kernel [4.313136216120379]
我々は、ニューラルタンジェントカーネル(NTK)の枠組み内で、広い浅層ニューラル演算子と物理インフォームド浅部ニューラル演算子の勾配降下の収束解析を行う。
過度なパラメータ化の設定の下では、勾配降下は連続時間であるか離散時間であるかに関わらず、大域的な最小値を見つけることができる。
論文 参考訳(メタデータ) (2024-12-07T05:47:28Z) - Can neural operators always be continuously discretized? [7.37972671531752]
我々は、スキップ接続を含む一般的なフレームワークにおいて、ヒルベルト空間間のニューラル作用素の離散化の問題を考える。
ビリプシッツニューラル作用素は、常に強い単調ニューラル作用素の交互組成の形で書けることを示す。
また、このタイプのニューラル作用素は有限ランク残留ニューラル作用素の合成によって近似できることを示す。
論文 参考訳(メタデータ) (2024-12-04T15:22:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Designing Universal Causal Deep Learning Models: The Case of Infinite-Dimensional Dynamical Systems from Stochastic Analysis [7.373617024876726]
解析におけるいくつかの非線形作用素は、現代のニューラル作用素によって利用されていない時間構造に依存している。
本稿では,無限次元線形距離空間を適切に扱うディープラーニングモデル設計フレームワークを提案する。
我々のフレームワークはコンパクトな集合や任意の有限時間地平線 H" や滑らかなトレースクラス作用素に対して均一に近似できることを示す。
論文 参考訳(メタデータ) (2022-10-24T14:43:03Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。