論文の概要: Active Learning with a Noisy Annotator
- arxiv url: http://arxiv.org/abs/2504.04506v1
- Date: Sun, 06 Apr 2025 14:27:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:13:45.867379
- Title: Active Learning with a Noisy Annotator
- Title(参考訳): ノイズアノテータを用いたアクティブラーニング
- Authors: Netta Shafir, Guy Hacohen, Daphna Weinshall,
- Abstract要約: ノイズ対応アクティブサンプリング(NAS)と呼ばれる新しいフレームワークを提案する。
NASは、ノイズの多い代表者の選択により発見されていない領域を特定し、これらの領域の再サンプリングを可能にする。
NASは、様々なノイズタイプとレートで標準的なアクティブラーニング手法の性能を著しく向上させる。
- 参考スコア(独自算出の注目度): 13.272510644778105
- License:
- Abstract: Active Learning (AL) aims to reduce annotation costs by strategically selecting the most informative samples for labeling. However, most active learning methods struggle in the low-budget regime where only a few labeled examples are available. This issue becomes even more pronounced when annotators provide noisy labels. A common AL approach for the low- and mid-budget regimes focuses on maximizing the coverage of the labeled set across the entire dataset. We propose a novel framework called Noise-Aware Active Sampling (NAS) that extends existing greedy, coverage-based active learning strategies to handle noisy annotations. NAS identifies regions that remain uncovered due to the selection of noisy representatives and enables resampling from these areas. We introduce a simple yet effective noise filtering approach suitable for the low-budget regime, which leverages the inner mechanism of NAS and can be applied for noise filtering before model training. On multiple computer vision benchmarks, including CIFAR100 and ImageNet subsets, NAS significantly improves performance for standard active learning methods across different noise types and rates.
- Abstract(参考訳): アクティブラーニング(AL)は、ラベル付けのための最も情報性の高いサンプルを戦略的に選択することで、アノテーションのコストを削減することを目的としている。
しかし、ほとんどのアクティブな学習手法は、いくつかのラベル付きサンプルしか利用できない低予算体制で苦労している。
この問題は、アノテータがノイズの多いラベルを提供するとさらに顕著になる。
低予算と中予算の体制に対する共通のALアプローチは、データセット全体にわたってラベル付きセットのカバレッジを最大化することに焦点を当てている。
本稿では,ノイズアウェアアクティブサンプリング(NAS)と呼ばれる新しいフレームワークを提案する。
NASは、ノイズの多い代表者の選択により発見されていない領域を特定し、これらの領域の再サンプリングを可能にする。
我々は,NASの内部機構を活用し,モデルトレーニング前にノイズフィルタリングに適用可能な,低予算方式に適した簡易かつ効果的なノイズフィルタリング手法を提案する。
CIFAR100やImageNetサブセットを含む複数のコンピュータビジョンベンチマークでは、NASは様々なノイズタイプとレートで標準的なアクティブな学習方法のパフォーマンスを大幅に改善する。
関連論文リスト
- DIRECT: Deep Active Learning under Imbalance and Label Noise [15.571923343398657]
我々は,クラス不均衡とラベルノイズの両面において,アクティブラーニングの最初の研究を行う。
本稿では,クラス分離閾値を頑健に同定し,最も不確実な例を注釈する新しいアルゴリズムを提案する。
以上の結果から,DIRECTは最先端のアクティブ学習アルゴリズムと比較して,アノテーション予算の60%以上を節約できることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:18:34Z) - Improving a Named Entity Recognizer Trained on Noisy Data with a Few
Clean Instances [55.37242480995541]
クリーンなインスタンスの小さなセットから,ノイズの多いNERデータを誘導することで,ノイズを発生させる手法を提案する。
メインのNERモデルとともに、判別器モデルをトレーニングし、その出力を使用してサンプルの重み付けを校正します。
クラウドソーシングと遠隔監視データセットの結果から,提案手法は少ないガイダンスセットで継続的に性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2023-10-25T17:23:37Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Towards Robust Few-shot Point Cloud Semantic Segmentation [57.075074484313]
ショットポイントのクラウドセマンティックセグメンテーションは、少数のサポートセットのサンプルだけで、新しい見えないクラスに迅速に適応するようにモデルをトレーニングすることを目的としている。
本稿では,識別的特徴表現を学習するためのコンポーネントレベルクリーンノイズ分離(CCNS)表現学習を提案する。
また,MDNS(Multi-scale Degree-based Noise Suppression)方式を提案する。
論文 参考訳(メタデータ) (2023-09-20T11:40:10Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Active Learning Through a Covering Lens [7.952582509792972]
ディープラーニングは、ディープニューラルネットワークのアノテーションコストを削減することを目的としている。
低予算体制のための新しいアクティブラーニングアルゴリズムであるProbCoverを提案する。
いくつかの画像認識ベンチマークにおいて,我々の原理的アクティブラーニング戦略は,低予算体制の最先端性を向上することを示す。
論文 参考訳(メタデータ) (2022-05-23T14:03:23Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Adaptive Sample Selection for Robust Learning under Label Noise [1.71982924656402]
ディープニューラルネットワーク(DNN)は、ノイズの多いラベル付きデータの存在下で記憶や過度な適合の影響を受けることが示されている。
著名なアルゴリズムのクラスは、カリキュラム学習に動機づけられたサンプル選択戦略に依存している。
本稿では,バッチ統計のみに依存するデータ依存型適応型サンプル選択手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:10:58Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。