論文の概要: Which Spaces can be Embedded in $\mathcal{L}_p$-type Reproducing Kernel Banach Space? A Characterization via Metric Entropy
- arxiv url: http://arxiv.org/abs/2410.11116v1
- Date: Mon, 14 Oct 2024 21:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:58.165737
- Title: Which Spaces can be Embedded in $\mathcal{L}_p$-type Reproducing Kernel Banach Space? A Characterization via Metric Entropy
- Title(参考訳): 任意の空間を$\mathcal{L}_p$型再生カーネルバナッハ空間に埋め込むことができるか? : 計量エントロピーによる評価
- Authors: Yiping Lu, Daozhe Lin, Qiang Du,
- Abstract要約: 我々は、計量エントロピー成長と函数空間の再生核ヒルベルト/バナッハ空間への埋め込み性の間に新しい接続を確立する。
その結果、複雑な関数空間を学習するためのカーネル手法のパワーと限界に新たな光を当てた。
- 参考スコア(独自算出の注目度): 4.256898347232072
- License:
- Abstract: In this paper, we establish a novel connection between the metric entropy growth and the embeddability of function spaces into reproducing kernel Hilbert/Banach spaces. Metric entropy characterizes the information complexity of function spaces and has implications for their approximability and learnability. Classical results show that embedding a function space into a reproducing kernel Hilbert space (RKHS) implies a bound on its metric entropy growth. Surprisingly, we prove a \textbf{converse}: a bound on the metric entropy growth of a function space allows its embedding to a $\mathcal{L}_p-$type Reproducing Kernel Banach Space (RKBS). This shows that the $\mathcal{L}_p-$type RKBS provides a broad modeling framework for learnable function classes with controlled metric entropies. Our results shed new light on the power and limitations of kernel methods for learning complex function spaces.
- Abstract(参考訳): 本稿では,関数空間の計量エントロピー成長と,ヒルベルト/バナッハ空間への埋め込み性の間に新たな接続を確立する。
計量エントロピーは関数空間の情報複雑性を特徴づけ、それらの近似性と学習可能性に影響を及ぼす。
古典的な結果は、函数空間を再生核ヒルベルト空間 (RKHS) に埋め込むことは、その計量エントロピー成長の束縛を意味することを示している。
驚いたことに、函数空間の計量エントロピー成長の有界性は、$\mathcal{L}_p-$type Reproduction Kernel Banach Space (RKBS) への埋め込みを可能にする。
これは、$\mathcal{L}_p-$type RKBSが、制御された計量エントロピーを持つ学習可能な関数クラスのための広範なモデリングフレームワークを提供することを示している。
その結果、複雑な関数空間を学習するためのカーネル手法のパワーと限界に新たな光を当てた。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Global universal approximation of functional input maps on weighted
spaces [3.8059763597999012]
無限次元の重み付き空間上で定義されたいわゆる関数型入力ニューラルネットワークを導入し、無限次元の出力空間にも値を導入する。
連続函数に対する重み付き空間上の大域的普遍近似結果が、コンパクト集合上の通常の近似を超えていることを証明する。
署名核のヒルベルト核空間の再現は、ある種のガウス過程のキャメロン・マルティン空間であることを強調する。
論文 参考訳(メタデータ) (2023-06-05T23:06:32Z) - Local Intrinsic Dimensional Entropy [29.519376857728325]
ほとんどのエントロピー測度は、サンプル空間 $mathcalX|$ 上の確率分布の拡散に依存する。
本研究では,連続空間に対するエントロピー測度の定義において,濃度と分布の拡散が果たす役割について考察する。
分布の局所固有次元の平均値は、ID-エントロピー(ID-Entropy)と呼ばれ、連続空間の強エントロピー測度として機能する。
論文 参考訳(メタデータ) (2023-04-05T04:36:07Z) - Recursive Estimation of Conditional Kernel Mean Embeddings [0.0]
カーネル平均埋め込みは、ヒルベルト空間(RKHS)を再現するカーネルの要素への確率分布を写像する
ヒルベルト空間における条件付きカーネル平均写像を、ボヒナー空間である$L$空間で推定する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-12T16:55:58Z) - Sobolev Spaces, Kernels and Discrepancies over Hyperspheres [4.521119623956821]
この研究は超球面文脈におけるカーネルメソッドの理論基盤を提供する。
超球面上で定義されたカーネルに付随するネイティブ空間(再生カーネルヒルベルト空間)とソボレフ空間を特徴付ける。
その結果,カーネルキュウチュアの直接的影響,最悪のケースエラーの収束率の決定,およびキュウチュアアルゴリズムの適用性の向上が得られた。
論文 参考訳(メタデータ) (2022-11-16T20:31:38Z) - Continuous percolation in a Hilbert space for a large system of qubits [58.720142291102135]
パーコレーション遷移は無限クラスターの出現によって定義される。
ヒルベルト空間の指数的に増加する次元性は、有限サイズの超球面による被覆を非効率にすることを示す。
コンパクトな距離空間におけるパーコレーション遷移への我々のアプローチは、他の文脈での厳密な処理に有用である。
論文 参考訳(メタデータ) (2022-10-15T13:53:21Z) - Computationally Efficient PAC RL in POMDPs with Latent Determinism and
Conditional Embeddings [97.12538243736705]
大規模部分観測可能決定プロセス(POMDP)の関数近似を用いた強化学習に関する研究
我々のアルゴリズムは、大規模POMDPに確実にスケールする。
論文 参考訳(メタデータ) (2022-06-24T05:13:35Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Value Function Approximations via Kernel Embeddings for No-Regret
Reinforcement Learning [10.828727066443909]
我々は,CME-RLというオンラインモデルに基づくRLアルゴリズムを提案し,Hilbert空間への埋め込みとして遷移分布の表現を学習する。
絶対定数と多対数係数のみを隠蔽する次数$tildeObig(Hgamma_NsqrtNbig)$footnote $tildeO(cdot)$の頻繁な(Worst-case)後悔境界を証明してアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-11-16T11:40:55Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - The role of feature space in atomistic learning [62.997667081978825]
物理的にインスパイアされた記述子は、原子論シミュレーションへの機械学習技術の応用において重要な役割を果たしている。
異なる記述子のセットを比較するためのフレームワークを導入し、メトリクスとカーネルを使ってそれらを変換するさまざまな方法を紹介します。
原子密度のn-体相関から構築した表現を比較し,低次特徴の利用に伴う情報損失を定量的に評価した。
論文 参考訳(メタデータ) (2020-09-06T14:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。