論文の概要: Sparse Representer Theorems for Learning in Reproducing Kernel Banach
Spaces
- arxiv url: http://arxiv.org/abs/2305.12584v1
- Date: Sun, 21 May 2023 22:36:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:25:59.869393
- Title: Sparse Representer Theorems for Learning in Reproducing Kernel Banach
Spaces
- Title(参考訳): カーネルバナッハ空間を再現する学習のためのスパース表現定理
- Authors: Rui Wang, Yuesheng Xu, Mingsong Yan
- Abstract要約: 学習ソリューションのスパシティは、機械学習において望ましい機能である。
ある再生カーネルバナッハ空間(RKBS)はスパース学習法に適した仮説空間である。
- 参考スコア(独自算出の注目度): 7.764549421261887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparsity of a learning solution is a desirable feature in machine learning.
Certain reproducing kernel Banach spaces (RKBSs) are appropriate hypothesis
spaces for sparse learning methods. The goal of this paper is to understand
what kind of RKBSs can promote sparsity for learning solutions. We consider two
typical learning models in an RKBS: the minimum norm interpolation (MNI)
problem and the regularization problem. We first establish an explicit
representer theorem for solutions of these problems, which represents the
extreme points of the solution set by a linear combination of the extreme
points of the subdifferential set, of the norm function, which is
data-dependent. We then propose sufficient conditions on the RKBS that can
transform the explicit representation of the solutions to a sparse kernel
representation having fewer terms than the number of the observed data. Under
the proposed sufficient conditions, we investigate the role of the
regularization parameter on sparsity of the regularized solutions. We further
show that two specific RKBSs: the sequence space $\ell_1(\mathbb{N})$ and the
measure space can have sparse representer theorems for both MNI and
regularization models.
- Abstract(参考訳): 機械学習では、学習ソリューションのスパーシティが望ましい機能である。
ある再生カーネルバナッハ空間(RKBS)はスパース学習法に適した仮説空間である。
本稿の目標は,学習ソリューションにおけるsparsityを促進するrkbsの種類を理解することである。
RKBSにおける2つの典型的な学習モデルを考える:最小ノルム補間(MNI)問題と正規化問題である。
まず、これらの問題の解に対する明示的な表現定理を定め、これはデータ依存のノルム関数の偏微分集合の極点の線型結合によって設定された解の極点を表す。
次に、RKBS上で、観測されたデータの数よりも少ない項を持つスパースカーネル表現に解の明示的な表現を変換できる十分な条件を提案する。
提案する十分条件下では,正規化解のスパーシティに対する正規化パラメータの役割について検討する。
さらに、列空間 $\ell_1(\mathbb{N})$ と測度空間は MNI と正規化モデルの両方に対してスパース表現定理を持つことができる。
関連論文リスト
- Mirror Descent on Reproducing Kernel Banach Spaces [12.716091600034543]
本稿では,再生カーネルを用いたバナッハ空間の学習問題に対処する。
再生カーネルを用いてバナッハ空間の双対空間における勾配ステップを利用するアルゴリズムを提案する。
実際にこのアルゴリズムをインスタンス化するために、$p$-normのRKBSの新しいファミリーを導入する。
論文 参考訳(メタデータ) (2024-11-18T02:18:32Z) - Hypothesis Spaces for Deep Learning [7.695772976072261]
本稿では,ディープニューラルネットワーク(DNN)を用いた深層学習のための仮説空間を提案する。
DNNを2つの変数の関数として扱うことにより、DNNの所定の深さと幅によって決定される重み行列とバイアスのセットに位置するパラメータ変数に対するDNNの原始集合を考える。
このように構成されたバナッハ空間は、バナッハ空間(RKBS)を再現したカーネルであり、その再現されたカーネルを構築することを証明する。
論文 参考訳(メタデータ) (2024-03-05T22:42:29Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Analysis of Regularized Learning for Linear-functional Data in Banach
Spaces [3.160070867400839]
バナッハ空間における線形汎関数データに対する正規化学習の全体理論について検討する。
バナッハ空間の弱*位相による正確な解への近似解の収束を示す。
正規化学習の定理は、機械学習の多くの問題を解決するために適用される。
論文 参考訳(メタデータ) (2021-09-07T15:51:12Z) - Solving PDEs on Unknown Manifolds with Machine Learning [8.220217498103315]
本稿では,未知多様体上の楕円型PDEを解くためのメッシュフリー計算フレームワークと機械学習理論を提案する。
提案したNNソルバは,新しいデータポイント上の一般化とほぼ同一の誤差を持つ新しいデータポイント上でPDEを強固に一般化できることを示す。
論文 参考訳(メタデータ) (2021-06-12T03:55:15Z) - Bilinear Classes: A Structural Framework for Provable Generalization in
RL [119.42509700822484]
Bilinear Classesは強化学習の一般化を可能にする新しい構造フレームワークである。
このフレームワークは、サンプルの複雑さが達成可能な、ほとんどすべての既存のモデルを取り込んでいる。
我々の主な成果は、双線形クラスのためのサンプル複雑性を持つRLアルゴリズムである。
論文 参考訳(メタデータ) (2021-03-19T16:34:20Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Optimal oracle inequalities for solving projected fixed-point equations [53.31620399640334]
ヒルベルト空間の既知の低次元部分空間を探索することにより、確率観測の集合を用いて近似解を計算する手法を検討する。
本稿では,線形関数近似を用いた政策評価問題に対する時間差分学習手法の誤差を正確に評価する方法について述べる。
論文 参考訳(メタデータ) (2020-12-09T20:19:32Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。