論文の概要: Fine-Grained Classification with Noisy Labels
- arxiv url: http://arxiv.org/abs/2303.02404v1
- Date: Sat, 4 Mar 2023 12:32:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:57:47.221299
- Title: Fine-Grained Classification with Noisy Labels
- Title(参考訳): ノイズラベルを用いた細粒度分類
- Authors: Qi Wei, Lei Feng, Haoliang Sun, Ren Wang, Chenhui Guo, Yilong Yin
- Abstract要約: 雑音ラベル(LNL)を用いた学習は,ラベルが破損したトレーニングセットからモデル一般化を保証することを目的としている。
粒度データセット(LNL-FG)におけるLNLの滅多に研究されていないシナリオについて検討する。
本稿では,識別可能な表現を奨励することによってラベルノイズに直面する雑音耐性教師付きコントラスト学習(SNSCL)という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.128588235268126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning with noisy labels (LNL) aims to ensure model generalization given a
label-corrupted training set. In this work, we investigate a rarely studied
scenario of LNL on fine-grained datasets (LNL-FG), which is more practical and
challenging as large inter-class ambiguities among fine-grained classes cause
more noisy labels. We empirically show that existing methods that work well for
LNL fail to achieve satisfying performance for LNL-FG, arising the practical
need of effective solutions for LNL-FG. To this end, we propose a novel
framework called stochastic noise-tolerated supervised contrastive learning
(SNSCL) that confronts label noise by encouraging distinguishable
representation. Specifically, we design a noise-tolerated supervised
contrastive learning loss that incorporates a weight-aware mechanism for noisy
label correction and selectively updating momentum queue lists. By this
mechanism, we mitigate the effects of noisy anchors and avoid inserting noisy
labels into the momentum-updated queue. Besides, to avoid manually-defined
augmentation strategies in contrastive learning, we propose an efficient
stochastic module that samples feature embeddings from a generated
distribution, which can also enhance the representation ability of deep models.
SNSCL is general and compatible with prevailing robust LNL strategies to
improve their performance for LNL-FG. Extensive experiments demonstrate the
effectiveness of SNSCL.
- Abstract(参考訳): 雑音ラベル(LNL)を用いた学習は,ラベル破損したトレーニングセットをモデル一般化することを目的としている。
本研究では,細粒度データセット(lnl-fg)におけるlnlのほとんど研究されていないシナリオについて検討する。
我々は,LNL-FGにおいて,LNL-FGの満足度を達成できない既存手法を実証的に示し,LNL-FGの有効解の実用化の必要性を指摘した。
そこで本研究では,ラベル雑音に直面する確率的雑音許容教師付きコントラスト学習(snscl)という新しい枠組みを提案する。
具体的には,雑音ラベル補正のための重み認識機構と,モーメントキューリストを選択的に更新するコントラスト学習損失について設計する。
この機構により、ノイズアンカーの効果を緩和し、モーメント更新キューにノイズラベルを挿入することを避ける。
さらに,コントラスト学習における手作業による拡張戦略を避けるために,生成した分布から埋め込みを抽出し,深層モデルの表現能力を向上させる効率的な確率モジュールを提案する。
SNSCLは汎用的で、LNL-FGの性能を向上させるための堅牢なLNL戦略と互換性がある。
SNSCLの有効性を示す実験が盛んである。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - BadLabel: A Robust Perspective on Evaluating and Enhancing Label-noise
Learning [113.8799653759137]
我々はBadLabelと呼ばれる新しいラベルノイズタイプを導入し、既存のLNLアルゴリズムの性能を大幅に劣化させることができる。
BadLabelは、標準分類に対するラベルフライング攻撃に基づいて開発されている。
そこで本稿では, 各エポックにおいてラベルを逆向きに摂動させ, クリーンかつノイズの多いラベルの損失値を再び識別可能にする頑健なLNL法を提案する。
論文 参考訳(メタデータ) (2023-05-28T06:26:23Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - ALASCA: Rethinking Label Smoothing for Deep Learning Under Label Noise [10.441880303257468]
サブCl-アシファイア(ALASCA)上でのアダプティブラーベル平滑化(Adaptive LAbel smoothing)という枠組みを提案する。
ラベル平滑化(LS)は暗黙のリプシッツ正則化(LR)を引き起こすことが示唆された。
これらの導出に基づいて、中間層に適応LRを実用的に適用するために、適応LS(ALS)をサブクラス化アーキテクチャに適用する。
論文 参考訳(メタデータ) (2022-06-15T03:37:51Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Open-set Label Noise Can Improve Robustness Against Inherent Label Noise [27.885927200376386]
オープンセットノイズラベルは非毒性であり, 固有ノイズラベルに対するロバスト性にも寄与することを示した。
本研究では,動的雑音ラベル(ODNL)を用いたオープンセットサンプルをトレーニングに導入することで,シンプルかつ効果的な正規化を提案する。
論文 参考訳(メタデータ) (2021-06-21T07:15:50Z) - Influential Rank: A New Perspective of Post-training for Robust Model
against Noisy Labels [23.80449026013167]
本稿では,雑音ラベル(LNL)からポストトレーニングを通じて学習する新しい手法を提案する。
我々は、トレーニングされたモデルの過度な適合性を利用して、誤ラベルされたサンプルを識別する。
我々のポストトレーニングアプローチは、既存のLNL法と組み合わせることで大きなシナジーを生み出す。
論文 参考訳(メタデータ) (2021-06-14T08:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。