論文の概要: Optimal Labeler Assignment and Sampling for Active Learning in the Presence of Imperfect Labels
- arxiv url: http://arxiv.org/abs/2512.12870v1
- Date: Sun, 14 Dec 2025 23:06:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.477608
- Title: Optimal Labeler Assignment and Sampling for Active Learning in the Presence of Imperfect Labels
- Title(参考訳): 不完全ラベル存在下でのアクティブラーニングのための最適ラベルアサインメントとサンプリング
- Authors: Pouya Ahadi, Blair Winograd, Camille Zaug, Karunesh Arora, Lijun Wang, Kamran Paynabar,
- Abstract要約: 雑音レベルを最小化してロバストな分類モデルを構築するための新しいALフレームワークを提案する。
提案手法は,各サイクルにおける最大ノイズを最小限に抑えるために,クエリポイントをラベル付けに最適に割り当てる代入モデルを含む。
提案手法は,いくつかのベンチマーク手法と比較して,分類性能を著しく向上することを示した。
- 参考スコア(独自算出の注目度): 13.796089124499318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active Learning (AL) has garnered significant interest across various application domains where labeling training data is costly. AL provides a framework that helps practitioners query informative samples for annotation by oracles (labelers). However, these labels often contain noise due to varying levels of labeler accuracy. Additionally, uncertain samples are more prone to receiving incorrect labels because of their complexity. Learning from imperfectly labeled data leads to an inaccurate classifier. We propose a novel AL framework to construct a robust classification model by minimizing noise levels. Our approach includes an assignment model that optimally assigns query points to labelers, aiming to minimize the maximum possible noise within each cycle. Additionally, we introduce a new sampling method to identify the best query points, reducing the impact of label noise on classifier performance. Our experiments demonstrate that our approach significantly improves classification performance compared to several benchmark methods.
- Abstract(参考訳): Active Learning(AL)は、トレーニングデータのラベル付けにコストがかかるさまざまなアプリケーション領域において、大きな関心を集めている。
ALは、実践者がオークル(ラベル)によるアノテーションのインフォメーションサンプルをクエリするのを助けるフレームワークを提供する。
しかしながら、これらのラベルは、様々なレベルのラベルの精度のために、しばしばノイズを含む。
さらに、不確実なサンプルは、その複雑さのために不正確なラベルを受け取る傾向にある。
不完全なラベル付きデータからの学習は、不正確な分類器につながる。
雑音レベルを最小化してロバストな分類モデルを構築するための新しいALフレームワークを提案する。
提案手法は,各サイクルにおける最大ノイズを最小限に抑えるために,クエリポイントをラベル付けに最適に割り当てる代入モデルを含む。
さらに,最適な問合せ点を特定するための新しいサンプリング手法を導入し,ラベルノイズが分類器の性能に与える影響を低減した。
提案手法は,いくつかのベンチマーク手法と比較して,分類性能を著しく向上することを示した。
関連論文リスト
- Efficient Adaptive Label Refinement for Label Noise Learning [14.617885790129336]
本稿では,不適切なラベルを回避し,クリーンなサンプルを徹底的に学習するための適応ラベル精製(ALR)を提案する。
ALRは単純で効率的であり、ノイズや補助的なデータセットに関する事前の知識を必要としない。
人工ラベルノイズ付きベンチマークデータセット(CIFAR-10/100)と固有ノイズ付き実世界のデータセット(ANIMAL-10N, Clothing1M, WebVision)を用いて、ALRの有効性を検証する。
論文 参考訳(メタデータ) (2025-02-01T09:58:08Z) - Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Pseudo-labelling meets Label Smoothing for Noisy Partial Label Learning [8.387189407144403]
我々は、完全注釈付きデータセットのキュレーションが高価である問題に対する効果的な学習パラダイムとして、弱い教師付き学習を動機付けている。
PLL(Partial Learning)は、各トレーニングインスタンスが候補ラベルのセットとペアリングされる、弱い教師付き学習パラダイムである。
本稿では,近傍の重み付けアルゴリズムを用いて,まず画像に擬似ラベルを割り当てるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T13:32:47Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Robust Meta-learning with Sampling Noise and Label Noise via
Eigen-Reptile [78.1212767880785]
Meta-learnerは、利用可能なサンプルがわずかしかないため、過度に適合する傾向がある。
ノイズの多いラベルでデータを扱う場合、メタラーナーはラベルノイズに対して非常に敏感になる可能性がある。
本稿では,タスク固有のパラメータの主要な方向でメタパラメータを更新するEigen-Reptile(ER)を提案する。
論文 参考訳(メタデータ) (2022-06-04T08:48:02Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - An Ensemble Noise-Robust K-fold Cross-Validation Selection Method for
Noisy Labels [0.9699640804685629]
大規模なデータセットには、ディープニューラルネットワーク(DNN)によって記憶されるような、ラベルのずれたサンプルが含まれている傾向があります。
本稿では, ノイズデータからクリーンなサンプルを効果的に選択するために, アンサンブルノイズ・ロバスト K-fold Cross-Validation Selection (E-NKCVS) を提案する。
我々は,ラベルが手動で異なる雑音比で破損した様々な画像・テキスト分類タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-07-06T02:14:52Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。