論文の概要: Cleaning the Pool: Progressive Filtering of Unlabeled Pools in Deep Active Learning
- arxiv url: http://arxiv.org/abs/2511.22344v1
- Date: Thu, 27 Nov 2025 11:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.537236
- Title: Cleaning the Pool: Progressive Filtering of Unlabeled Pools in Deep Active Learning
- Title(参考訳): プールのクリーニング: 深層学習における未ラベルプールのプログレッシブフィルタ
- Authors: Denis Huseljic, Marek Herde, Lukas Rauch, Paul Hahn, Bernhard Sick,
- Abstract要約: 本稿では,複数の戦略を組み合わさったアンサンブル能動学習(AL)手法であるREFINEを紹介する。
プログレッシブフィルタリングは、AL戦略のアンサンブルを考慮してラベル付けされていないプールを反復的に洗練する。
カバレッジベースの選択は、この洗練されたプールから最終バッチを選択し、以前は認識されていたすべての値の概念が説明されるようにします。
- 参考スコア(独自算出の注目度): 8.368114553774065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing active learning (AL) strategies capture fundamentally different notions of data value, e.g., uncertainty or representativeness. Consequently, the effectiveness of strategies can vary substantially across datasets, models, and even AL cycles. Committing to a single strategy risks suboptimal performance, as no single strategy dominates throughout the entire AL process. We introduce REFINE, an ensemble AL method that combines multiple strategies without knowing in advance which will perform best. In each AL cycle, REFINE operates in two stages: (1) Progressive filtering iteratively refines the unlabeled pool by considering an ensemble of AL strategies, retaining promising candidates capturing different notions of value. (2) Coverage-based selection then chooses a final batch from this refined pool, ensuring all previously identified notions of value are accounted for. Extensive experiments across 6 classification datasets and 3 foundation models show that REFINE consistently outperforms individual strategies and existing ensemble methods. Notably, progressive filtering serves as a powerful preprocessing step that improves the performance of any individual AL strategy applied to the refined pool, which we demonstrate on an audio spectrogram classification use case. Finally, the ensemble of REFINE can be easily extended with upcoming state-of-the-art AL strategies.
- Abstract(参考訳): 既存のアクティブラーニング(AL)戦略は、データバリュー、例えば不確実性、代表性といった、根本的に異なる概念を捉えます。
その結果、戦略の有効性はデータセット、モデル、さらにはALサイクルによって大きく異なります。
単一戦略へのコミットは、ALプロセス全体において、単一の戦略が支配的ではないため、準最適パフォーマンスのリスクを負う。
本稿では,複数の戦略を組み合わせたアンサンブルAL手法であるREFINEを紹介する。
各ALサイクルにおいて、REFINEは2つの段階で機能する: 1) プログレッシブフィルタリングは、AL戦略のアンサンブルを考慮してラベル付けされていないプールを反復的に洗練し、異なる価値概念を取得する有望な候補を保持する。
2) カバレッジベースの選択は、この洗練されたプールから最終バッチを選択し、以前は認識されていたすべての値の概念が説明されるようにします。
6つの分類データセットと3つの基礎モデルにわたる大規模な実験は、REFINEが個々の戦略と既存のアンサンブルメソッドを一貫して上回っていることを示している。
特に、プログレッシブ・フィルタリングは、洗練されたプールに適用された個々のAL戦略の性能を向上させる強力な前処理ステップとして機能し、オーディオ・スペクトログラム分類のユースケースで実演する。
最後に、REFINEのアンサンブルは、今後の最先端のAL戦略で容易に拡張できる。
関連論文リスト
- WaveFuse-AL: Cyclical and Performance-Adaptive Multi-Strategy Active Learning for Medical Images [0.7933039558471408]
サイクル適応型多段階能動学習(WaveFuse-AL)を提案する。
WaveFuse-ALは、学習プロセスを通じて、BALD、BADGE、Entropy、CoreSetといった確立した買収戦略を融合させる。
実験の結果、WaveFuse-ALはシングルストラテジーと交互ストラテジーベースラインの両方を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2025-11-19T05:23:23Z) - Auto-Stega: An Agent-Driven System for Lifelong Strategy Evolution in LLM-Based Text Steganography [21.817549738509346]
Auto-Stegaは、自己進化型のステガノグラフィ戦略のためのフレームワークである。
推論時に戦略を生成し、評価し、要約し、更新する。
高埋め込み率を扱うために,PC-DNTEというプラグイン・アンド・プレイアルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-10-08T01:32:59Z) - No Free Lunch in Active Learning: LLM Embedding Quality Dictates Query Strategy Success [1.950171084881346]
汎用表現を生成できる大規模言語モデル(LLM)により、深層能動学習(AL)の実践性を再考することができる。
本研究は,LLM埋込み品質が深いALの問合せ戦略に与える影響について,ベンチマークを定式化し,系統的に検討する。
論文 参考訳(メタデータ) (2025-05-18T10:38:26Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition [0.0]
本稿では,自動音声認識(ASR)のための2段階アクティブラーニング(AL)パイプラインを提案する。
第1段階では、ラベルなし音声データから多様なサンプル選択を行うために、xベクトルクラスタリングを用いて教師なしALを利用する。
第2段階には、ASR用に特別に開発されたバッチALメソッドを備えた、教師付きAL戦略が組み込まれている。
論文 参考訳(メタデータ) (2024-05-03T19:24:41Z) - REBEL: Reinforcement Learning via Regressing Relative Rewards [59.68420022466047]
生成モデルの時代における最小限のRLアルゴリズムであるREBELを提案する。
理論的には、自然ポリシーグラディエントのような基本的なRLアルゴリズムはREBELの変種と見なすことができる。
我々はREBELが言語モデリングと画像生成に一貫したアプローチを提供し、PPOやDPOとより強くあるいは類似した性能を実現することを発見した。
論文 参考訳(メタデータ) (2024-04-25T17:20:45Z) - SemiReward: A General Reward Model for Semi-supervised Learning [58.47299780978101]
半教師付き学習(SSL)は、擬似ラベリングによる自己学習フレームワークの様々な改善により、大きな進歩をみせた。
主な課題は、高品質な擬似ラベルを確認バイアスと区別する方法である。
本稿では、報酬スコアを予測して高品質な擬似ラベルを評価・フィルタリングするセミ教師付きリワードフレームワーク(SemiReward)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:56:41Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - ImitAL: Learned Active Learning Strategy on Synthetic Data [30.595138995552748]
ImitALはドメインに依存しない新しいクエリ戦略であり、ALを学習からランクまでの問題としてエンコードする。
我々はImitALを、純粋に合成されたデータセット上で大規模にシミュレーションされたALで訓練する。
ImitALがうまくトレーニングされたことを示すため、13の異なるデータセット上での戦略の比較を広範囲に評価した。
論文 参考訳(メタデータ) (2022-08-24T16:17:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。