論文の概要: Topological DeepONets and a generalization of the Chen-Chen operator approximation theorem
- arxiv url: http://arxiv.org/abs/2603.11972v1
- Date: Thu, 12 Mar 2026 14:23:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.138581
- Title: Topological DeepONets and a generalization of the Chen-Chen operator approximation theorem
- Title(参考訳): 位相DeepONetsとChen-Chen作用素近似定理の一般化
- Authors: Vugar Ismailov,
- Abstract要約: 関数空間間で作用する非線形演算子を近似するための分岐トランクニューラルアーキテクチャを提供する。
我々の主定理は、連続作用素 $G:Vto C(K;mathbbRm)$, ここで、$Vsubset X$ と $KsubsetmathbbRd$ はコンパクトであり、そのような位相的DeepONetsによって一様近似できることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Operator Networks (DeepONets) provide a branch-trunk neural architecture for approximating nonlinear operators acting between function spaces. In the classical operator approximation framework, the input is a function $u\in C(K_1)$ defined on a compact set $K_1$ (typically a compact subset of a Banach space), and the operator maps $u$ to an output function $G(u)\in C(K_2)$ defined on a compact Euclidean domain $K_2\subset\mathbb{R}^d$. In this paper, we develop a topological extension in which the operator input lies in an arbitrary Hausdorff locally convex space $X$. We construct topological feedforward neural networks on $X$ using continuous linear functionals from the dual space $X^*$ and introduce topological DeepONets whose branch component acts on $X$ through such linear measurements, while the trunk component acts on the Euclidean output domain. Our main theorem shows that continuous operators $G:V\to C(K;\mathbb{R}^m)$, where $V\subset X$ and $K\subset\mathbb{R}^d$ are compact, can be uniformly approximated by such topological DeepONets. This extends the classical Chen-Chen operator approximation theorem from spaces of continuous functions to locally convex spaces and yields a branch-trunk approximation theorem beyond the Banach-space setting.
- Abstract(参考訳): Deep Operator Networks (DeepONets) は、関数空間間で作用する非線形作用素を近似するための分岐トランクニューラルネットワークを提供する。
古典的作用素近似フレームワークでは、入力はコンパクト集合 $K_1$(典型的にはバナッハ空間のコンパクト部分集合)で定義される関数 $u\in C(K_1)$ であり、作用素はコンパクトユークリッド領域 $K_2\subset\mathbb{R}^d$ で定義される出力関数 $G(u)\in C(K_2)$ に$u$ を写像する。
本論文では、作用素の入力が任意のハウスドルフ局所凸空間$X$にある位相拡大を開発する。
我々は,2重空間$X^*$の連続線型汎関数を用いて,$X$上のトポロジカルフィードフォワードニューラルネットワークを構築し,そのような線形測定により分岐成分が$X$に作用するトポロジカルDeepONetsを導入し,トランク成分はユークリッド出力領域に作用する。
我々の主定理は、連続作用素 $G:V\to C(K;\mathbb{R}^m)$, ここで、$V\subset X$ と $K\subset\mathbb{R}^d$ はコンパクトであり、そのような位相的DeepONetsによって一様近似できることを示している。
これは古典的なChen-Chen作用素近似定理を連続函数の空間から局所凸空間へ拡張し、バナッハ空間の設定を超えた分岐トランク近似定理を与える。
関連論文リスト
- On finite-dimensional encoding/decoding theorems for neural operators [0.0]
函数空間 $E$ と $F$ の間の連続写像 $f$ がコンパクト空間上の一様収束の位相において近似されることを示す。
この結果は、すべてのノルム空間だけでなく、任意の局所凸空間に対しても、$E,F$の仮定は必要としない。
この解析は、微分方程式の理論において非ノルムな局所凸函数空間が一般的であるため、既に有用である。
論文 参考訳(メタデータ) (2026-01-20T15:15:51Z) - Group Representational Position Encoding [66.33026480082025]
グループ行動に基づく位置符号化のための統一的なフレームワークであるGRAPEを提案する。
i)乗法回転 (Multiplicative GRAPE) in $mathrmSO(d)$ と (ii)加法ロジットバイアス (Additive GRAPE) は一般線型群 $mathrmGL$ における一等作用から生じる。
論文 参考訳(メタデータ) (2025-12-08T18:39:13Z) - Guessing Efficiently for Constrained Subspace Approximation [49.83981776254246]
制約付き部分空間近似のための一般的なフレームワークを導入する。
分割制約付き部分空間近似のための新しいアルゴリズムを$k$-meansクラスタリングに適用し、非負行列分解を投影する。
論文 参考訳(メタデータ) (2025-04-29T15:56:48Z) - Tensor network approximation of Koopman operators [0.0]
本稿では,測度保存エルゴディックシステムの可観測物の進化を近似する枠組みを提案する。
提案手法は,スキューアジョイント・クープマン発生器のスペクトル収束近似に基づく。
この量子に着想を得た近似の重要な特徴は、次元$(2d+1)n$のテンソル積空間から情報を取得することである。
論文 参考訳(メタデータ) (2024-07-09T21:40:14Z) - Optimal and Efficient Algorithms for Decentralized Online Convex Optimization [51.00357162913229]
分散オンライン凸最適化(D-OCO)は、局所計算と通信のみを用いて、グローバルな損失関数の列を最小化するように設計されている。
我々は,凸関数と強凸関数の残差を$tildeO(nrho-1/4sqrtT)$と$tildeO(nrho-1/2log T)$に削減できる新しいD-OCOアルゴリズムを開発した。
我々の分析によると、射影自由多様体は$O(nT3/4)$と$O(n)を達成できる。
論文 参考訳(メタデータ) (2024-02-14T13:44:16Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - Asymptotic Tensor Powers of Banach Spaces [77.34726150561087]
ユークリッド空間は、そのテンソル半径がその次元と等しい性質によって特徴づけられることを示す。
また、領域または範囲がユークリッドである作用素のテンソル半径がその核ノルムと等しいことを示す。
論文 参考訳(メタデータ) (2021-10-25T11:51:12Z) - Deep neural network approximation of analytic functions [91.3755431537592]
ニューラルネットワークの空間に エントロピーバウンド 片方向の線形活性化関数を持つ
我々は、ペナル化深部ニューラルネットワーク推定器の予測誤差に対するオラクルの不等式を導出する。
論文 参考訳(メタデータ) (2021-04-05T18:02:04Z) - Nonparametric approximation of conditional expectation operators [0.3655021726150368]
最小の仮定の下で、$[Pf](x) := mathbbE[f(Y) mid X = x ]$ で定義される$L2$-operatorの近似について検討する。
我々は、再生されたカーネル空間上で作用するヒルベルト・シュミット作用素により、作用素ノルムにおいて$P$が任意に適切に近似できることを証明した。
論文 参考訳(メタデータ) (2020-12-23T19:06:12Z) - A deep network construction that adapts to intrinsic dimensionality
beyond the domain [79.23797234241471]
本稿では,ReLUを活性化したディープネットワークを用いて,2層合成の近似を$f(x) = g(phi(x))$で検討する。
例えば、低次元埋め込み部分多様体への射影と、低次元集合の集合への距離である。
論文 参考訳(メタデータ) (2020-08-06T09:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。