論文の概要: Online Active Regression
- arxiv url: http://arxiv.org/abs/2207.05945v1
- Date: Wed, 13 Jul 2022 03:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 14:22:58.405841
- Title: Online Active Regression
- Title(参考訳): Online Active Regression
- Authors: Cheng Chen, Yi Li, Yiming Sun
- Abstract要約: 学習者はデータポイントを1つずつ受け取り、対応するラベルを収集すべきかを判断する。
目標は、ラベルクエリの少ない予算で、受信したデータポイントのレグレッションを効率的に維持することである。
- 参考スコア(独自算出の注目度): 8.397196353612042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active regression considers a linear regression problem where the learner
receives a large number of data points but can only observe a small number of
labels. Since online algorithms can deal with incremental training data and
take advantage of low computational cost, we consider an online extension of
the active regression problem: the learner receives data points one by one and
immediately decides whether it should collect the corresponding labels. The
goal is to efficiently maintain the regression of received data points with a
small budget of label queries. We propose novel algorithms for this problem
under $\ell_p$ loss where $p\in[1,2]$. To achieve a $(1+\epsilon)$-approximate
solution, our proposed algorithms only require
$\tilde{\mathcal{O}}(\epsilon^{-2} d \log(n\kappa))$ queries of labels, where
$n$ is the number of data points and $\kappa$ is a quantity, called the
condition number, of the data points. The numerical results verify our
theoretical results and show that our methods have comparable performance with
offline active regression algorithms.
- Abstract(参考訳): アクティブ回帰は、学習者が大量のデータポイントを受信するが、少数のラベルしか観測できない線形回帰問題を考える。
オンラインアルゴリズムは、インクリメンタルなトレーニングデータを扱うことができ、低計算コストを生かすことができるため、アクティブ回帰問題のオンライン拡張を考える: 学習者はデータポイントを1つずつ受け取り、対応するラベルを収集すべきかどうかを即座に決定する。
目標は、受信したデータポイントのレグレッションをラベルクエリの少ない予算で効率的に維持することである。
この問題に対する新しいアルゴリズムを$\ell_p$ Los, $p\in[1,2]$で提案する。
1+\epsilon)$-approximate 解を得るためには、提案するアルゴリズムはラベルのクエリに対して $\tilde{\mathcal{o}}(\epsilon^{-2} d \log(n\kappa))$ のみを必要とする。
その結果,提案手法はオフラインアクティブ回帰アルゴリズムと同等の性能を持つことがわかった。
関連論文リスト
- Data subsampling for Poisson regression with pth-root-link [53.63838219437508]
ポアソン回帰のためのデータサブサンプリング手法を開発し解析する。
特に,ポアソン一般化線形モデルと ID-および平方根リンク関数について考察する。
論文 参考訳(メタデータ) (2024-10-30T10:09:05Z) - Turnstile $\ell_p$ leverage score sampling with applications [56.403488578703865]
我々は,行列$AinmathbbRntimes d$の行をサンプリングする新しいアルゴリズムを開発した。
我々のアルゴリズムはサンプル行インデックスのセットを返すだけでなく、わずかに乱れた行を $tildea_i approx a_i$ で返却し、サンプリング確率を $varepsilon$ の相対誤差に近似する。
ロジスティック回帰のために、我々のフレームワークは$を達成した最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-06-01T07:33:41Z) - Online Algorithms with Limited Data Retention [4.101276693704335]
データ保持に関する厳密な制約を受けるオンラインアルゴリズムのモデルを導入する。
我々は,全てのデータをできるだけ長く保持するベースラインアルゴリズムよりも指数関数的に改善できることを示す。
我々の結果の1つの意味は、データ保持法は忘れられる権利を保証するのに不十分であるということだ。
論文 参考訳(メタデータ) (2024-04-17T02:17:23Z) - Scaling Up Differentially Private LASSO Regularized Logistic Regression
via Faster Frank-Wolfe Iterations [51.14495595270775]
我々は,Frank-Wolfeアルゴリズムを$L_1$のペナル化線形回帰に適応させ,スパース入力を認識し,有効利用する。
この方法では,プライバシパラメータ$epsilon$の値とデータセットの分散度に応じて,最大2,200times$の係数でランタイムを削減できることを示す。
論文 参考訳(メタデータ) (2023-10-30T19:52:43Z) - Hardness and Algorithms for Robust and Sparse Optimization [17.842787715567436]
スパース線形回帰やロバスト線形回帰といったスパース最適化問題に対するアルゴリズムと制限について検討する。
具体的には、スパース線型回帰問題は$k$-スパースベクトル$xinmathbbRd$を求め、$|Ax-b|$を最小化する。
頑健な線形回帰問題は、少なくとも$k$行を無視する集合$S$と、$|(Ax-b)_S|$を最小化するベクトル$x$を求める。
論文 参考訳(メタデータ) (2022-06-29T01:40:38Z) - Active Sampling for Linear Regression Beyond the $\ell_2$ Norm [70.49273459706546]
対象ベクトルの少数のエントリのみを問合せすることを目的とした線形回帰のためのアクティブサンプリングアルゴリズムについて検討する。
我々はこの$d$への依存が対数的要因まで最適であることを示す。
また、損失関数に対して最初の全感度上界$O(dmax1,p/2log2 n)$を提供し、最大で$p$成長する。
論文 参考訳(メタデータ) (2021-11-09T00:20:01Z) - Oblivious sketching for logistic regression [72.42202783677811]
本稿では,ロジスティック回帰のための最初のデータ難読スケッチを示す。
私たちのスケッチは速く、シンプルで、実装も簡単です。
論文 参考訳(メタデータ) (2021-07-14T11:29:26Z) - Semi-supervised Active Regression [21.51757844385258]
本稿では,学習課題における偏りのある部分ラベル付きデータの利用について検討する。
学習者は、追加のラベルクエリをほとんど行わずに、mathbbRd | X min_beta in mathbbRd | X beta - Y |2 end2 方程式でデータセット $X にアクセスすることができる。
論文 参考訳(メタデータ) (2021-06-12T03:28:43Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。