論文の概要: Uncertainty Herding: One Active Learning Method for All Label Budgets
- arxiv url: http://arxiv.org/abs/2412.20644v1
- Date: Mon, 30 Dec 2024 01:33:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:07:19.440730
- Title: Uncertainty Herding: One Active Learning Method for All Label Budgets
- Title(参考訳): 不確実性ハーディング: すべてのラベル予算に対するアクティブな学習方法
- Authors: Wonho Bae, Gabriel L. Oliveira, Danica J. Sutherland,
- Abstract要約: 様々な低予算・高予算の目的を一般化する目的である不確実性カバレッジを提案する。
本手法は低予算と高予算の両方で確実に有効であることを示す。
- 参考スコア(独自算出の注目度): 16.173043939954137
- License:
- Abstract: Most active learning research has focused on methods which perform well when many labels are available, but can be dramatically worse than random selection when label budgets are small. Other methods have focused on the low-budget regime, but do poorly as label budgets increase. As the line between "low" and "high" budgets varies by problem, this is a serious issue in practice. We propose uncertainty coverage, an objective which generalizes a variety of low- and high-budget objectives, as well as natural, hyperparameter-light methods to smoothly interpolate between low- and high-budget regimes. We call greedy optimization of the estimate Uncertainty Herding; this simple method is computationally fast, and we prove that it nearly optimizes the distribution-level coverage. In experimental validation across a variety of active learning tasks, our proposal matches or beats state-of-the-art performance in essentially all cases; it is the only method of which we are aware that reliably works well in both low- and high-budget settings.
- Abstract(参考訳): ほとんどの活発な学習研究は、多くのラベルが利用可能であればうまく機能する手法に焦点を合わせてきたが、ラベル予算が小さい場合、ランダムな選択よりも劇的に悪化する可能性がある。
その他の手法は低予算体制に重点を置いているが、ラベルの予算が増加するにつれて不十分である。
低い" と "高い" の予算の境界線は問題によって異なり、実際にはこれは深刻な問題である。
我々は,低予算と高予算の多種多様な目的を一般化する目的である不確実性カバレッジと,低予算と高予算の制度間を円滑に補間する自然パラメタライト手法を提案する。
この単純な手法は計算が高速であり、分布レベルのカバレッジをほぼ最適化できることを実証する。
様々なアクティブな学習タスクに対する実験的な検証において、提案手法は基本的にすべてのケースにおいて最先端のパフォーマンスと一致または打ち勝つ。
関連論文リスト
- Generalized Coverage for More Robust Low-Budget Active Learning [17.547993023092562]
ProbCoverは、選択したデータポイントで与えられた半径のボールでデータ分布を"カバー"しようとする。
本稿では,ProbCoverのアルゴリズムを一般化して,このカバレッジを最適化する効率的なグリージー手法を提案する。
総合的な実験では、MaxHerdingは複数の低予算画像分類ベンチマークで既存のアクティブな学習方法を上回っている。
論文 参考訳(メタデータ) (2024-07-16T23:21:51Z) - Optimal Multi-Fidelity Best-Arm Identification [65.23078799972188]
バンディットのベストアーム識別において、アルゴリズムは、できるだけ早く特定の精度で、最高平均報酬の腕を見つけることを任務とする。
マルチフィデリティのベストアーム識別について検討し、低コストで低いフィデリティ(正確な平均推定値を持たない)で腕をサンプリングすることを選択できる。
この問題に対処するためのいくつかの方法が提案されているが、その最適性は、特に最適な腕を特定するのに必要な総コストのゆるやかな下限のため、未解決のままである。
論文 参考訳(メタデータ) (2024-06-05T08:02:40Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - Label Budget Allocation in Multi-Task Learning [61.12008399759143]
マルチタスク学習では、関連するタスクが互いに情報を提供し、全体的なパフォーマンスを改善する。
最適なマルチタスクパフォーマンスを実現するために,ラベル予算をさまざまなタスクに割り当てるには,どうすればよいのか?
我々は,マルチタスク学習において,ラベル予算配分問題を初めて提案し,正式に定義する。
論文 参考訳(メタデータ) (2023-08-24T17:38:14Z) - How to Select Which Active Learning Strategy is Best Suited for Your
Specific Problem and Budget [17.62242617965356]
本稿では,予算の最適戦略を動的に識別する実用的な微分法を提案する。
次に,問題の特徴と利用可能な予算を考慮したAL戦略を動的に選択する手法を提案する。
その結果,様々な予算やコンピュータビジョンタスクにまたがるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-06T09:44:56Z) - Active Learning Through a Covering Lens [7.952582509792972]
ディープラーニングは、ディープニューラルネットワークのアノテーションコストを削減することを目的としている。
低予算体制のための新しいアクティブラーニングアルゴリズムであるProbCoverを提案する。
いくつかの画像認識ベンチマークにおいて,我々の原理的アクティブラーニング戦略は,低予算体制の最先端性を向上することを示す。
論文 参考訳(メタデータ) (2022-05-23T14:03:23Z) - Budgeted Classification with Rejection: An Evolutionary Method with
Multiple Objectives [0.0]
予算付きシーケンシャル分類器(BSC)プロセスは、部分的特徴取得と評価ステップのシーケンスを通じて入力を行う。
これにより、不要な特徴取得を防止するための入力の効率的な評価が可能になる。
本稿では,信頼度に基づく拒否オプション付き逐次分類器を構築するための問題固有遺伝的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-01T22:05:16Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。