論文の概要: Active Local Learning
- arxiv url: http://arxiv.org/abs/2008.13374v2
- Date: Fri, 4 Sep 2020 02:58:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:45:16.432602
- Title: Active Local Learning
- Title(参考訳): アクティブローカルラーニング
- Authors: Arturs Backurs, Avrim Blum, Neha Gupta
- Abstract要約: クエリポイント$x$とラベルなしのトレーニングセット$S$へのアクティブアクセスを与えられた場合、H$でほぼ最適な$hの予測$h(x)$を出力します。
特にラベルクエリの数は$H$の複雑さとは無関係でなければならないし、関数$h$は$x$とは無関係に明確に定義されるべきである。
これはまた、すぐに距離推定のアルゴリズムを示唆している: ほぼ最適の$hを実際に学習するのに必要となる多くのラベルから$opt(H)$を推定する。
- 参考スコア(独自算出の注目度): 22.823171570933397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we consider active local learning: given a query point $x$, and
active access to an unlabeled training set $S$, output the prediction $h(x)$ of
a near-optimal $h \in H$ using significantly fewer labels than would be needed
to actually learn $h$ fully. In particular, the number of label queries should
be independent of the complexity of $H$, and the function $h$ should be
well-defined, independent of $x$. This immediately also implies an algorithm
for distance estimation: estimating the value $opt(H)$ from many fewer labels
than needed to actually learn a near-optimal $h \in H$, by running local
learning on a few random query points and computing the average error.
For the hypothesis class consisting of functions supported on the interval
$[0,1]$ with Lipschitz constant bounded by $L$, we present an algorithm that
makes $O(({1 / \epsilon^6}) \log(1/\epsilon))$ label queries from an unlabeled
pool of $O(({L / \epsilon^4})\log(1/\epsilon))$ samples. It estimates the
distance to the best hypothesis in the class to an additive error of $\epsilon$
for an arbitrary underlying distribution. We further generalize our algorithm
to more than one dimensions. We emphasize that the number of labels used is
independent of the complexity of the hypothesis class which depends on $L$.
Furthermore, we give an algorithm to locally estimate the values of a
near-optimal function at a few query points of interest with number of labels
independent of $L$.
We also consider the related problem of approximating the minimum error that
can be achieved by the Nadaraya-Watson estimator under a linear diagonal
transformation with eigenvalues coming from a small range. For a
$d$-dimensional pointset of size $N$, our algorithm achieves an additive
approximation of $\epsilon$, makes $\tilde{O}({d}/{\epsilon^2})$ queries and
runs in $\tilde{O}({d^2}/{\epsilon^{d+4}}+{dN}/{\epsilon^2})$ time.
- Abstract(参考訳): クエリポイント $x$ とラベルなしのトレーニングセットへのアクティブアクセスを与えられた場合、$h$ を学習するのに必要となるラベルよりはるかに少ないラベルを使用して、ほぼ最適に近い$h \in h$ の予測$h(x)$ を出力する。
特にラベルクエリの数は$h$の複雑さとは無関係で、関数$h$は$x$とは独立して明確に定義されるべきである。
これはまた、距離推定のためのアルゴリズムも含んでいる: いくつかのランダムなクエリポイントでローカル学習を実行し、平均エラーを計算することによって、実際に最適化された$h \in h$を学習するために必要以上に少ないラベルから$opt(h)$を推定する。
区間 $[0,1]$ とリプシッツ定数を $l$ で有界とする関数からなる仮説クラスに対して、$o(({1 / \epsilon^6}) \log(1/\epsilon))$ のラベル付きプールからラベル付きクエリを$o(({l / \epsilon^4})\log(1/\epsilon))$ とするアルゴリズムを提案する。
クラス内の最良の仮説への距離を任意の基底分布に対して$\epsilon$の加法誤差に推定する。
我々はさらにアルゴリズムを複数の次元に一般化する。
使用するラベルの数は、$L$に依存する仮説クラスの複雑さとは無関係であることを強調する。
さらに,$l$ に依存しないラベル数を持ついくつかの問合せ点において,最適に近い関数の値を局所的に推定するアルゴリズムを提案する。
また, 線形対角変換の下でナダラヤ・ワトソン推定器によって達成される最小誤差を, 固有値が小さい範囲から得られるような最小誤差を近似する問題についても考察する。
サイズ$n$の$d$次元のポイントセットに対して、このアルゴリズムは$\epsilon$の加算近似を達成し、$\tilde{o}({d}/{\epsilon^2})$クエリを生成し、$\tilde{o}({d^2}/{\epsilon^{d+4}}+{dn}/{\epsilon^2})$ timeで実行する。
関連論文リスト
- A spectral least-squares-type method for heavy-tailed corrupted
regression with unknown covariance \& heterogeneous noise [2.019622939313173]
重み付き最小二乗線形回帰は、少なくとも$epsilon n$ arbitrary outliersの$n$のラベル特徴サンプルを破損させたと仮定して再検討する。
本稿では,$(Sigma,Xi) や $Xi$ の演算ノルムに関する知識を前提に,電力法に基づくほぼ最適に計算可能な推定器を提案する。
論文 参考訳(メタデータ) (2022-09-06T23:37:31Z) - List-Decodable Sparse Mean Estimation via Difference-of-Pairs Filtering [42.526664955704746]
そこで我々は,リストデコダブルなスパース平均推定のための,新しい,概念的にシンプルな手法を開発した。
特に、$k$-sparse方向の「確実に有界な」$t-thモーメントを持つ分布の場合、このアルゴリズムは、サンプル複雑性$m = (klog(n))O(t)/alpha(mnt)$の誤差を1/alpha(O (1/t)$で達成する。
Gaussian inliers の特別な場合、我々のアルゴリズムは $Theta (sqrtlog) の最適誤差を保証する。
論文 参考訳(メタデータ) (2022-06-10T17:38:18Z) - Semi-supervised Active Regression [21.51757844385258]
本稿では,学習課題における偏りのある部分ラベル付きデータの利用について検討する。
学習者は、追加のラベルクエリをほとんど行わずに、mathbbRd | X min_beta in mathbbRd | X beta - Y |2 end2 方程式でデータセット $X にアクセスすることができる。
論文 参考訳(メタデータ) (2021-06-12T03:28:43Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - List-Decodable Mean Estimation in Nearly-PCA Time [50.79691056481693]
高次元におけるリストデコタブル平均推定の基本的な課題について検討する。
我々のアルゴリズムは、すべての$k = O(sqrtd) cup Omega(d)$に対して$widetildeO(ndk)$で実行されます。
我々のアルゴリズムの変種は、すべての$k$に対してランタイム$widetildeO(ndk)$を持ち、リカバリ保証の$O(sqrtlog k)$ Factorを犠牲にしている。
論文 参考訳(メタデータ) (2020-11-19T17:21:37Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - $Q$-learning with Logarithmic Regret [60.24952657636464]
楽観的な$Q$は$mathcalOleft(fracSAcdot mathrmpolyleft(Hright)Delta_minlogleft(SATright)right)$ cumulative regret bound, where $S$ is the number of state, $A$ is the number of action, $H$ is the planning horizon, $T$ is the total number of steps, $Delta_min$ is the least sub-Optitimality gap。
論文 参考訳(メタデータ) (2020-06-16T13:01:33Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z) - Agnostic Q-learning with Function Approximation in Deterministic
Systems: Tight Bounds on Approximation Error and Sample Complexity [94.37110094442136]
本稿では,決定論的システムにおける関数近似を用いたQ$学習の問題について検討する。
もし$delta = Oleft(rho/sqrtdim_Eright)$なら、$Oleft(dim_Eright)$を使って最適なポリシーを見つけることができる。
論文 参考訳(メタデータ) (2020-02-17T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。