論文の概要: Efficient Active Learning with Abstention
- arxiv url: http://arxiv.org/abs/2204.00043v1
- Date: Thu, 31 Mar 2022 18:34:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 13:55:32.012216
- Title: Efficient Active Learning with Abstention
- Title(参考訳): 留意を伴う能動的学習の効率化
- Authors: Yinglun Zhu, Robert Nowak
- Abstract要約: 計算効率のよい能動学習アルゴリズムを開発した。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
- 参考スコア(独自算出の注目度): 12.315392649501101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of active learning is to achieve the same accuracy achievable by
passive learning, while using much fewer labels. Exponential savings in label
complexity are provably guaranteed in very special cases, but fundamental lower
bounds show that such improvements are impossible in general. This suggests a
need to explore alternative goals for active learning. Learning with abstention
is one such alternative. In this setting, the active learning algorithm may
abstain from prediction in certain cases and incur an error that is marginally
smaller than $\frac{1}{2}$. We develop the first computationally efficient
active learning algorithm with abstention. Furthermore, the algorithm is
guaranteed to only abstain on hard examples (where the true label distribution
is close to a fair coin), a novel property we term "proper abstention" that
also leads to a host of other desirable characteristics. The option to abstain
reduces the label complexity by an exponential factor, with no assumptions on
the distribution, relative to passive learning algorithms and/or active
learning that are not allowed to abstain. A key feature of the algorithm is
that it avoids the undesirable "noise-seeking" behavior often seen in active
learning. We also explore extensions that achieve constant label complexity and
deal with model misspecification.
- Abstract(参考訳): アクティブラーニングの目標は、より少ないラベルを使用して、受動的学習によって達成可能なのと同じ精度を達成することである。
ラベル複雑性の指数的節約は、非常に特殊な場合において確実に保証されるが、基本的な下限は、一般的にそのような改善は不可能であることを示している。
これは、アクティブラーニングの代替目標を検討する必要があることを示唆している。
禁断で学ぶことはそのような方法の一つだ。
この設定では、アクティブラーニングアルゴリズムは、特定のケースでは予測を控え、$\frac{1}{2}$よりわずかに小さいエラーを引き起こす可能性がある。
計算効率のよい能動学習アルゴリズムを開発した。
さらに、アルゴリズムはハードな例(真のラベル分布が公正なコインに近い場合)のみを許容することが保証されている。
吸収するオプションは、吸収できない受動的学習アルゴリズムやアクティブ学習と比較して、分布に仮定がなく指数関数的因子によってラベルの複雑さを減少させる。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
また,ラベルの複雑さを一定にし,モデルの誤特定に対処する拡張についても検討する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - DIRECT: Deep Active Learning under Imbalance and Label Noise [15.571923343398657]
我々は,クラス不均衡とラベルノイズの両面において,アクティブラーニングの最初の研究を行う。
本稿では,クラス分離閾値を頑健に同定し,最も不確実な例を注釈する新しいアルゴリズムを提案する。
以上の結果から,DIRECTは最先端のアクティブ学習アルゴリズムと比較して,アノテーション予算の60%以上を節約できることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:18:34Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Active Learning with Neural Networks: Insights from Nonparametric
Statistics [12.315392649501101]
本論文は, 深層学習において, 準最適ラベルの複雑性が保証される最初の方法である。
標準的な低騒音条件下では,ニューラルネットワークを用いた能動学習がミニマックスラベルの複雑さを確実に達成できることを示す。
また,低雑音の仮定を伴わずに,$mathsfpolylog(frac1epsilon)$ラベル複雑性を実現する,効率的な深層能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-15T19:57:09Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Nonparametric adaptive active learning under local smoothness condition [0.76146285961466]
本稿では,最小仮定の非パラメトリック環境における適応型アクティブラーニングの問題に対処する。
従来知られていたアルゴリズムよりも,より一般的な仮定の下で有効な新しいアルゴリズムを提案する。
我々のアルゴリズムは最小収束率を達成し、最もよく知られた非適応アルゴリズムと同等に機能する。
論文 参考訳(メタデータ) (2021-02-22T14:47:21Z) - Bounded Memory Active Learning through Enriched Queries [28.116967200489192]
アクティブ・ラーニング(英: Active Learning)とは、データ・ハングリー学習アルゴリズムが高価なラベリングコストを下げるために情報的サンプルを適応的に選択するパラダイムである。
これに対抗するために、近年の一連の研究は、学習者がラベル以外の豊富なクエリを問うことができるモデルとして検討されている。
このようなモデルはラベルのコストを大幅に下げることに成功したが、大量のメモリを必要とする傾向にある。
論文 参考訳(メタデータ) (2021-02-09T19:00:00Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。