論文の概要: The Teaching Dimension of Kernel Perceptron
- arxiv url: http://arxiv.org/abs/2010.14043v2
- Date: Wed, 24 Feb 2021 23:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:23:16.316917
- Title: The Teaching Dimension of Kernel Perceptron
- Title(参考訳): カーネル・パーセプトロンの教示次元
- Authors: Akash Kumar, Hanqi Zhang, Adish Singla, Yuxin Chen
- Abstract要約: 特徴写像の異なる族に対するカーネル化パーセプトロンに対して、授業のサンプル複雑性、いわゆる教示次元を確立する。
教えの複雑さは、$mathbbRd$における線形パーセプトロンの正確な教えに対して$Theta(d)$であり、$Theta(dk)$は順序が$k$のカーネルに対するカーネルパーセプトロンに対して$Theta(dk)$であることを示す。
- 参考スコア(独自算出の注目度): 27.35980597080509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic machine teaching has been studied under the linear setting where
exact teaching is possible. However, little is known for teaching nonlinear
learners. Here, we establish the sample complexity of teaching, aka teaching
dimension, for kernelized perceptrons for different families of feature maps.
As a warm-up, we show that the teaching complexity is $\Theta(d)$ for the exact
teaching of linear perceptrons in $\mathbb{R}^d$, and $\Theta(d^k)$ for kernel
perceptron with a polynomial kernel of order $k$. Furthermore, under certain
smooth assumptions on the data distribution, we establish a rigorous bound on
the complexity for approximately teaching a Gaussian kernel perceptron. We
provide numerical examples of the optimal (approximate) teaching set under
several canonical settings for linear, polynomial and Gaussian kernel
perceptrons.
- Abstract(参考訳): アルゴリズムによる機械教育は, 正確な指導が可能な線形設定の下で研究されてきた。
しかし、非線形学習者を教えることはほとんど知られていない。
ここでは、異なる特徴写像の族に対するカーネル化パーセプトロンの学習のサンプル複雑性、いわゆる教示次元を確立する。
ウォームアップとして、教示の複雑さは、$\mathbb{r}^d$ における線形パーセプトロンの正確な教示には$\theta(d)$ であり、多項式核が $k$ であるカーネルパーセプトロンには$\theta(d^k)$ である。
さらに,データ分布に関する一定の平滑な仮定の下では,ガウス核パーセプトロンを大まかに教えるための複雑性の厳密な境界を確立する。
線形,多項式,ガウス核パーセプトロンの正準設定の下での最適(近似)指導集合の数値例を示す。
関連論文リスト
- Universality of kernel random matrices and kernel regression in the quadratic regime [18.51014786894174]
本研究では、カーネルカーネルの回帰の研究を二次構造にまで拡張する。
我々は、元のカーネルランダム行列と二次カーネルランダム行列の差分に限定した作用素ノルム近似を確立する。
我々は、$n/d2$が非ゼロ定数に収束する二次状態におけるKRRの正確なトレーニングと一般化誤差を特徴づける。
論文 参考訳(メタデータ) (2024-08-02T07:29:49Z) - Learning High-Dimensional Nonparametric Differential Equations via
Multivariate Occupation Kernel Functions [0.31317409221921133]
通常の微分方程式の非パラメトリック系を学ぶには、$d$変数の$d$関数を学ぶ必要がある。
明示的な定式化は、スパーシティや対称性といったシステム特性に関する追加の知識が得られない限り、$d$で2次的にスケールする。
本稿では,ベクトル値の再現Kernel Hilbert Spacesによる暗黙の定式化を用いた線形学習手法を提案する。
論文 参考訳(メタデータ) (2023-06-16T21:49:36Z) - Deep Learning with Kernels through RKHM and the Perron-Frobenius
Operator [14.877070496733966]
再生カーネル Hilbert $C*$-module (RKHM) は、複製カーネル Hilbert 空間 (RKHS) を$C*$-algebra を用いて一般化したものである。
我々は、この設定で有界な新しいラデマッハ一般化を導出し、ペロン・フロベニウス作用素による良性過剰適合の理論的解釈を提供する。
論文 参考訳(メタデータ) (2023-05-23T01:38:41Z) - Neural Networks can Learn Representations with Gradient Descent [68.95262816363288]
特定の状況下では、勾配降下によって訓練されたニューラルネットワークは、カーネルメソッドのように振る舞う。
実際には、ニューラルネットワークが関連するカーネルを強く上回ることが知られている。
論文 参考訳(メタデータ) (2022-06-30T09:24:02Z) - An Equivalence Principle for the Spectrum of Random Inner-Product Kernel
Matrices with Polynomial Scalings [21.727073594338297]
この研究は、機械学習と統計学の応用によって動機付けられている。
スケーリングシステムにおいて,これらのランダム行列の経験的分布の弱い限界を確立する。
我々の結果は、マルテンコ・パストゥル法と半円法の間の自由加法的畳み込みとして特徴づけられる。
論文 参考訳(メタデータ) (2022-05-12T18:50:21Z) - Locality defeats the curse of dimensionality in convolutional
teacher-student scenarios [69.2027612631023]
学習曲線指数$beta$を決定する上で,局所性が重要であることを示す。
我々は、自然の仮定を用いて、トレーニングセットのサイズに応じて減少するリッジでカーネルレグレッションを実行すると、リッジレスの場合と同じような学習曲線指数が得られることを証明して結論付けた。
論文 参考訳(メタデータ) (2021-06-16T08:27:31Z) - High-Dimensional Gaussian Process Inference with Derivatives [90.8033626920884]
低データ状態の$ND$では、Gram行列は$mathcalO(N2D + (N2)3)$に推論のコストを下げる方法で分解できることを示す。
最適化や予測勾配を持つハミルトニアンモンテカルロなど、機械学習に関連する様々なタスクでこの可能性を実証する。
論文 参考訳(メタデータ) (2021-02-15T13:24:41Z) - Learning Manifold Implicitly via Explicit Heat-Kernel Learning [63.354671267760516]
そこで,本研究では,熱カーネルを学習することで,多様体情報を暗黙的に取得する,暗黙的多様体学習の概念を提案する。
学習した熱カーネルは、データ生成のための深層生成モデル(DGM)やベイズ推論のためのスタイン変分勾配Descentなど、さまざまなカーネルベースの機械学習モデルに適用することができる。
論文 参考訳(メタデータ) (2020-10-05T03:39:58Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Average-case Complexity of Teaching Convex Polytopes via Halfspace
Queries [55.28642461328172]
平均的なケースの教えの複雑さは$Theta(d)$であり、最悪のケースの教えの複雑さは$Theta(n)$とは対照的である。
我々の洞察は、$phi$-separable dichotomiesの平均ケースの複雑さに厳密な拘束力を確立することを可能にする。
論文 参考訳(メタデータ) (2020-06-25T19:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。