論文の概要: Active Covering
- arxiv url: http://arxiv.org/abs/2106.02552v1
- Date: Fri, 4 Jun 2021 15:32:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 19:07:25.010898
- Title: Active Covering
- Title(参考訳): アクティブカバー
- Authors: Heinrich Jiang, Afshin Rostamizadeh
- Abstract要約: 我々は,学習者がラベルのないデータセットを与えられ,クエリの事例を逐次ラベル付けできる,アクティブカバーの問題を分析する。
目的は,最少数のラベルクエリにおいて,肯定的な例をすべてラベル付けすることである。
- 参考スコア(独自算出の注目度): 37.525977525895605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the problem of active covering, where the learner is given an
unlabeled dataset and can sequentially label query examples. The objective is
to label query all of the positive examples in the fewest number of total label
queries. We show under standard non-parametric assumptions that a classical
support estimator can be repurposed as an offline algorithm attaining an excess
query cost of $\widetilde{\Theta}(n^{D/(D+1)})$ compared to the optimal
learner, where $n$ is the number of datapoints and $D$ is the dimension. We
then provide a simple active learning method that attains an improved excess
query cost of $\widetilde{O}(n^{(D-1)/D})$. Furthermore, the proposed
algorithms only require access to the positive labeled examples, which in
certain settings provides additional computational and privacy benefits.
Finally, we show that the active learning method consistently outperforms
offline methods as well as a variety of baselines on a wide range of benchmark
image-based datasets.
- Abstract(参考訳): 学習者がラベルのないデータセットを与えられ、クエリの例を順次ラベル付けできるアクティブカバーの問題を解析する。
目的は,最少数のラベルクエリにおいて,肯定的な例をすべてラベル付けすることである。
我々は、古典的サポート推定器を、最適な学習者と比較して、$\widetilde{\Theta}(n^{D/(D+1)})$の過剰なクエリコストが得られるようなオフラインアルゴリズムとして再利用できるという標準的な非パラメトリックな仮定を示す。
次に,より優れた過剰クエリコストを$\widetilde{O}(n^{(D-1)/D})$で実現する,シンプルな能動学習手法を提案する。
さらに、提案アルゴリズムは正のラベル付き例にのみアクセスする必要があるが、特定の設定では、さらなる計算とプライバシーの利点を提供する。
最後に、アクティブラーニング手法は、幅広いベンチマーク画像に基づくデータセットにおいて、オフラインメソッドと様々なベースラインを一貫して上回っていることを示す。
関連論文リスト
- Online Active Regression [8.397196353612042]
学習者はデータポイントを1つずつ受け取り、対応するラベルを収集すべきかを判断する。
目標は、ラベルクエリの少ない予算で、受信したデータポイントのレグレッションを効率的に維持することである。
論文 参考訳(メタデータ) (2022-07-13T03:53:25Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Adaptive Multi-Goal Exploration [118.40427257364729]
我々は、AdaGoalが$epsilon$-optimal goal-conditioned policyを学習する目的を達成するためにどのように使えるかを示す。
AdaGoalは、ゴール条件の深い強化学習のための既存の手法の高レベルなアルゴリズム構造に固定されている。
論文 参考訳(メタデータ) (2021-11-23T17:59:50Z) - A Simple Baseline for Low-Budget Active Learning [15.54250249254414]
簡単なk平均クラスタリングアルゴリズムは、低予算で最先端のアクティブな学習方法より優れていることを示す。
この方法は,画像分類に基づく低予算能動学習のための単純なベースラインとして利用することができる。
論文 参考訳(メタデータ) (2021-10-22T19:36:56Z) - How to Query An Oracle? Efficient Strategies to Label Data [59.89900843097016]
機械学習におけるデータセットのラベル付けに専門家の託宣を照会する際の基本的な問題について考察する。
本稿では,サンプルをラベル付けするために,ラウンド・バイ・ラウンドでランダム化されたバッチアルゴリズムを提案し,クエリレートが$O(fracNk2)$であることを示す。
さらに,適応型グリージークエリ方式を提案し,三重項クエリを用いたサンプルあたり平均$approx 0.2N$クエリを実現する。
論文 参考訳(メタデータ) (2021-10-05T20:15:35Z) - Zero-Round Active Learning [13.25385227263705]
アクティブラーニング(AL)は、大きなプールから最も価値のあるラベル付きデータポイントを特定することで、ラベル付けの労力を削減することを目的としている。
従来のALフレームワークには2つの制限がある。
近年の研究では,データユーティリティ学習と最適化に基づく一括アクティブラーニングのソリューションが提案されている。
論文 参考訳(メタデータ) (2021-07-14T13:47:13Z) - Low Budget Active Learning via Wasserstein Distance: An Integer
Programming Approach [81.19737119343438]
アクティブラーニング(Active Learning)とは、ラベル付きデータプールのコアサブセットをラベルに選択することで、ラベル付きデータでモデルをトレーニングするプロセスである。
本稿では,未ラベルプールからワッサーシュタイン距離を最小化するコアセットを選択するための新しい整数最適化問題を提案する。
我々の戦略は、ラベルのないプールで教師なし学習によって得られる高品質な潜伏的特徴を必要とする。
論文 参考訳(メタデータ) (2021-06-05T21:25:03Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Active$^2$ Learning: Actively reducing redundancies in Active Learning
methods for Sequence Tagging and Machine Translation [14.030275887949147]
アクティブラーニング(AL)戦略は、マニュアルアノテーションの少数の例を反復的に選択することで、大量のラベル付きデータの必要性を減らす。
本稿では,al戦略が個別に例を選択することから,学習過程に寄与しない類似の例を選択できる可能性について論じる。
提案手法であるActive$mathbf2$ Learning (A$mathbf2$L)は,このような冗長な例を排除するために,ディープラーニングモデルに積極的に適応する。
論文 参考訳(メタデータ) (2021-03-11T06:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。