論文の概要: New universal operator approximation theorem for encoder-decoder architectures (Preprint)
- arxiv url: http://arxiv.org/abs/2503.24092v1
- Date: Mon, 31 Mar 2025 13:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:32:31.386671
- Title: New universal operator approximation theorem for encoder-decoder architectures (Preprint)
- Title(参考訳): エンコーダ・デコーダアーキテクチャの新しい普遍作用素近似定理(プレプリント)
- Authors: Janek Gödeke, Pascal Fernsel,
- Abstract要約: 幅広いエンコーダ・デコーダアーキテクチャのクラスに対する新しい普遍作用素近似定理を提案する。
本研究では、$mathcalC(mathcalX, MathcalY)$で連続作用素を近似することに焦点を当て、$mathcalX$と$mathcalY$は無限次元ノルム空間または計量空間である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Motivated by the rapidly growing field of mathematics for operator approximation with neural networks, we present a novel universal operator approximation theorem for a broad class of encoder-decoder architectures. In this study, we focus on approximating continuous operators in $\mathcal{C}(\mathcal{X}, \mathcal{Y})$, where $\mathcal{X}$ and $\mathcal{Y}$ are infinite-dimensional normed or metric spaces, and we consider uniform convergence on compact subsets of $\mathcal{X}$. Unlike standard results in the operator learning literature, we investigate the case where the approximating operator sequence can be chosen independently of the compact sets. Taking a topological perspective, we analyze different types of operator approximation and show that compact-set-independent approximation is a strictly stronger property in most relevant operator learning frameworks. To establish our results, we introduce a new approximation property tailored to encoder-decoder architectures, which enables us to prove a universal operator approximation theorem ensuring uniform convergence on every compact subset. This result unifies and extends existing universal operator approximation theorems for various encoder-decoder architectures, including classical DeepONets, BasisONets, special cases of MIONets, architectures based on frames and other related approaches.
- Abstract(参考訳): ニューラルネットワークを用いた演算子近似のための数学の分野が急速に発展し、エンコーダ・デコーダアーキテクチャの幅広いクラスに対する新しい普遍演算子近似定理を提案する。
本研究では、連続作用素を $\mathcal{C}(\mathcal{X}, \mathcal{Y})$ で近似することに焦点を当て、$\mathcal{X}$ と $\mathcal{Y}$ は無限次元ノルムあるいは距離空間であり、$\mathcal{X}$ のコンパクト部分集合上の一様収束を考える。
演算子学習文献の標準的な結果とは異なり、近似演算子列がコンパクト集合とは独立に選択できる場合について検討する。
トポロジカルな観点から異なるタイプの演算子近似を解析し、コンパクトな集合非依存近似がほとんどの関連する演算子学習フレームワークにおいて強固な性質であることを示す。
結果を確立するために,エンコーダ・デコーダアーキテクチャに適した新しい近似特性を導入し,任意のコンパクト部分集合に対して一様収束を保証する普遍的な演算子近似定理を証明した。
この結果は、古典的なDeepONets、BasisONets、MIONetsの特殊ケース、フレームに基づくアーキテクチャなど、様々なエンコーダ・デコーダアーキテクチャに対する既存の普遍作用素近似定理を統一し拡張する。
関連論文リスト
- Approximation Rates in Fréchet Metrics: Barron Spaces, Paley-Wiener Spaces, and Fourier Multipliers [1.4732811715354452]
フーリエ領域の対応する記号を近似することで線形微分作用素の一般近似機能について検討する。
その意味で、近似誤差をFr'echetメートル法で測定する。
すると、我々は主定理の自然な拡張に焦点を合わせ、そこでは半ノルムの列の仮定を小さくすることができる。
論文 参考訳(メタデータ) (2024-12-27T20:16:04Z) - Operator Learning of Lipschitz Operators: An Information-Theoretic Perspective [2.375038919274297]
この研究は、リプシッツ連続作用素の一般クラスに対する神経作用素近似の複雑さに対処する。
我々の主な貢献は、2つの近似設定におけるリプシッツ作用素の計量エントロピーの低い境界を確立することである。
使用したアクティベーション関数にかかわらず、近似精度が$epsilon$に達する神経オペレーターアーキテクチャは、$epsilon-1$で指数関数的に大きいサイズでなければならない。
論文 参考訳(メタデータ) (2024-06-26T23:36:46Z) - Sample-efficient Learning of Infinite-horizon Average-reward MDPs with General Function Approximation [53.17668583030862]
一般関数近似の文脈において,無限水平平均逆マルコフ決定過程(AMDP)について検討する。
最適化最適化(LOOP)と呼ばれる新しいアルゴリズムフレームワークを提案する。
我々は LOOP がサブ線形 $tildemathcalO(mathrmpoly(d, mathrmsp(V*)) sqrtTbeta )$ regret を達成することを示す。
論文 参考訳(メタデータ) (2024-04-19T06:24:22Z) - Composite Bayesian Optimization In Function Spaces Using NEON -- Neural Epistemic Operator Networks [4.1764890353794994]
NEONは、単一のオペレータネットワークバックボーンを使用して不確実性のある予測を生成するアーキテクチャである。
NEONは、トレーニング可能なパラメータを桁違いに減らしながら、最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2024-04-03T22:42:37Z) - The Parametric Complexity of Operator Learning [5.756283466216181]
本稿では、Cr$-あるいはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習が「パラメトリック複雑性の帰結」に苦しむことを証明する。
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - Join-Chain Network: A Logical Reasoning View of the Multi-head Attention
in Transformer [59.73454783958702]
本稿では,多くの結合演算子を連結して出力論理式をモデル化するシンボリック推論アーキテクチャを提案する。
特に,このような結合鎖のアンサンブルが'ツリー構造'の1次論理式であるFOETの広い部分集合を表現できることを実証する。
変圧器における多頭部自己保持モジュールは,確率的述語空間における結合作用素の結合境界を実装する特別なニューラル演算子として理解することができる。
論文 参考訳(メタデータ) (2022-10-06T07:39:58Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Universal Approximation Property of Neural Ordinary Differential
Equations [19.861764482790544]
我々は NODE が一定の条件下で連続写像に対して$Lp$-universal approximator を形成することを示す。
また、それらのより強い近似特性、すなわち、大きな微分同相類を近似する$sup$-ユニバーサリティを示す。
論文 参考訳(メタデータ) (2020-12-04T05:53:21Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。