論文の概要: Navigating Label Ambiguity for Facial Expression Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2502.09993v1
- Date: Fri, 14 Feb 2025 08:24:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:45:54.613793
- Title: Navigating Label Ambiguity for Facial Expression Recognition in the Wild
- Title(参考訳): 野生における表情認識のための移動ラベルの曖昧さ
- Authors: JunGyu Lee, Yeji Choi, Haksub Kim, Ig-Jae Kim, Gi Pyo Nam,
- Abstract要約: 本研究では,NLA(Navigating Label Ambiguity)と呼ばれる,現実世界の環境下で堅牢な新しいフレームワークを提案する。
NLAの背景にある動機は、各イテレーションであいまいなサンプルを動的に推定し強調することは、ノイズとクラス不均衡を軽減することである。
大規模な実験は、NLAが既存の手法を総合的および平均的精度で上回ることを示した。
- 参考スコア(独自算出の注目度): 13.242490592706805
- License:
- Abstract: Facial expression recognition (FER) remains a challenging task due to label ambiguity caused by the subjective nature of facial expressions and noisy samples. Additionally, class imbalance, which is common in real-world datasets, further complicates FER. Although many studies have shown impressive improvements, they typically address only one of these issues, leading to suboptimal results. To tackle both challenges simultaneously, we propose a novel framework called Navigating Label Ambiguity (NLA), which is robust under real-world conditions. The motivation behind NLA is that dynamically estimating and emphasizing ambiguous samples at each iteration helps mitigate noise and class imbalance by reducing the model's bias toward majority classes. To achieve this, NLA consists of two main components: Noise-aware Adaptive Weighting (NAW) and consistency regularization. Specifically, NAW adaptively assigns higher importance to ambiguous samples and lower importance to noisy ones, based on the correlation between the intermediate prediction scores for the ground truth and the nearest negative. Moreover, we incorporate a regularization term to ensure consistent latent distributions. Consequently, NLA enables the model to progressively focus on more challenging ambiguous samples, which primarily belong to the minority class, in the later stages of training. Extensive experiments demonstrate that NLA outperforms existing methods in both overall and mean accuracy, confirming its robustness against noise and class imbalance. To the best of our knowledge, this is the first framework to address both problems simultaneously.
- Abstract(参考訳): 表情認識(FER)は,表情と雑音の主観的特徴から生じるラベルの曖昧さから,依然として困難な課題である。
さらに、実世界のデータセットで一般的なクラス不均衡は、FERをさらに複雑にする。
多くの研究が顕著な改善を示しているが、通常はこれらの問題の1つだけに対処し、最適以下の結果をもたらす。
両課題を同時に解決するために,NLA(Navigating Label Ambiguity)と呼ばれる,現実世界の環境下で堅牢な新しいフレームワークを提案する。
NLAの背景にある動機は、各イテレーションであいまいなサンプルを動的に推定し強調することにより、モデルの多数派に対する偏見を減らし、ノイズとクラス不均衡を軽減することである。
これを実現するため、NLAはノイズ対応適応重み付け(NAW)と整合性正規化の2つの主要コンポーネントで構成されている。
具体的には、NAWは、基底真理の中間予測スコアと最も近い負の相関に基づいて、曖昧なサンプルに高い重要度を割り当て、ノイズの多いサンプルに低い重要度を割り当てる。
さらに、一貫した潜在分布を保証するために正規化項を組み込む。
結果として、NLAはトレーニングの後期において、主に少数派に属するより困難な曖昧なサンプルに徐々に焦点を合わせることができる。
大規模な実験により、NLAは従来の手法を総合的および平均的精度で上回り、ノイズやクラス不均衡に対する頑健性を確認している。
私たちの知る限りでは、これは両方の問題に同時に対処する最初のフレームワークです。
関連論文リスト
- Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Fairness Improves Learning from Noisily Labeled Long-Tailed Data [119.0612617460727]
長い尾とノイズの多いラベル付きデータは、現実世界のアプリケーションに頻繁に現れ、学習に重大な課題を課す。
2つのサブポピュレーション間のパフォーマンスギャップを正規化することから着想を得たFairness Regularizer(FR)を導入する。
導入したフェアネス正則化器は,尾部のサブポピュレーションと全体的な学習性能を向上することを示す。
論文 参考訳(メタデータ) (2023-03-22T03:46:51Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。