論文の概要: ASM: Adaptive Sample Mining for In-The-Wild Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2310.05618v1
- Date: Mon, 9 Oct 2023 11:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:32:04.616686
- Title: ASM: Adaptive Sample Mining for In-The-Wild Facial Expression
Recognition
- Title(参考訳): asm:in-the-wild 表情認識のための適応的サンプルマイニング
- Authors: Ziyang Zhang, Xiao Sun, Liuwei An, Meng Wang
- Abstract要約: 適応サンプルマイニング(Adaptive Sample Mining)と呼ばれる新しい手法を導入し,各表現カテゴリのあいまいさとノイズに対処する。
本手法は、曖昧性とノイズの両方を効果的にマイニングし、合成ノイズとオリジナルデータセットの両方でSOTA法より優れる。
- 参考スコア(独自算出の注目度): 19.846612021056565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the similarity between facial expression categories, the presence of
compound facial expressions, and the subjectivity of annotators, facial
expression recognition (FER) datasets often suffer from ambiguity and noisy
labels. Ambiguous expressions are challenging to differentiate from expressions
with noisy labels, which hurt the robustness of FER models. Furthermore, the
difficulty of recognition varies across different expression categories,
rendering a uniform approach unfair for all expressions. In this paper, we
introduce a novel approach called Adaptive Sample Mining (ASM) to dynamically
address ambiguity and noise within each expression category. First, the
Adaptive Threshold Learning module generates two thresholds, namely the clean
and noisy thresholds, for each category. These thresholds are based on the mean
class probabilities at each training epoch. Next, the Sample Mining module
partitions the dataset into three subsets: clean, ambiguity, and noise, by
comparing the sample confidence with the clean and noisy thresholds. Finally,
the Tri-Regularization module employs a mutual learning strategy for the
ambiguity subset to enhance discrimination ability, and an unsupervised
learning strategy for the noise subset to mitigate the impact of noisy labels.
Extensive experiments prove that our method can effectively mine both ambiguity
and noise, and outperform SOTA methods on both synthetic noisy and original
datasets. The supplement material is available at
https://github.com/zzzzzzyang/ASM.
- Abstract(参考訳): 表情カテゴリの類似性、複合的な表情の存在、注釈者の主観性を考えると、表情認識(fer)データセットは曖昧さとノイズのラベルに苦しむことが多い。
曖昧な表現はノイズのあるラベルを持つ表現と区別することが困難であり、FERモデルの堅牢さを損なう。
さらに、認識の難しさは表現カテゴリーによって異なり、全ての表現に対して均一なアプローチが不公平である。
本稿では,適応サンプルマイニング(adaptive sample mining, asm)と呼ばれる新しい手法を提案する。
まず、適応しきい値学習モジュールは、カテゴリ毎に、クリーン閾値とノイズ閾値の2つのしきい値を生成する。
これらのしきい値は、各トレーニング時代の平均クラス確率に基づいている。
次に、サンプルマイニングモジュールは、サンプル信頼度とクリーンでノイズの多いしきい値を比較して、データセットをクリーン、曖昧、ノイズの3つのサブセットに分割する。
最後に、三規則化モジュールは、識別能力を高めるためにあいまいさサブセットの相互学習戦略と、雑音ラベルの影響を軽減するためにノイズサブセットの教師なし学習戦略を用いる。
広範囲にわたる実験により,提案手法は曖昧性と雑音の両方を効果的に検出し,合成雑音とオリジナルデータセットのsoma法を上回ることを証明する。
補足資料はhttps://github.com/zzzzyang/asmで入手できる。
関連論文リスト
- Robust Learning under Hybrid Noise [24.36707245704713]
本稿では,データリカバリの観点からハイブリッドノイズに対処するため,新たな統合学習フレームワーク"Feature and Label Recovery"(FLR)を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:13:25Z) - Multi-threshold Deep Metric Learning for Facial Expression Recognition [60.26967776920412]
本稿では,難易度検証を回避する多閾値深度学習手法を提案する。
その結果,三重項損失のそれぞれの閾値は本質的にクラス間変動の特異な分布を決定することがわかった。
埋め込み層はスライスで構成されており、より情報的で差別的な特徴である。
論文 参考訳(メタデータ) (2024-06-24T08:27:31Z) - Learning Confident Classifiers in the Presence of Label Noise [5.551384206194696]
本稿では,ノイズ観測のための確率論的モデルを提案し,信頼性の高い分類とセグメンテーションモデルの構築を可能にする。
実験により,本アルゴリズムは,検討された分類問題と分割問題に対して,最先端の解よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-01-02T04:27:25Z) - On Robust Learning from Noisy Labels: A Permutation Layer Approach [53.798757734297986]
本稿では、深層ニューラルネットワーク(DNN)のトレーニング過程を動的に校正するPermLLと呼ばれる置換層学習手法を提案する。
本稿では,PermLLの2つの変種について述べる。一方はモデルの予測に置換層を適用し,他方は与えられた雑音ラベルに直接適用する。
我々はPermLLを実験的に検証し、実際のデータセットと合成データセットの両方で最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2022-11-29T03:01:48Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition [3.823356975862006]
ノイズの多いアノテーションを扱うための動的FER学習フレームワーク(DNFER)を提案する。
具体的には、DNFERは、選択されたクリーンサンプルを使用した教師ありトレーニングと、すべてのサンプルを使用した教師なし一貫性のあるトレーニングに基づいている。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
論文 参考訳(メタデータ) (2022-08-22T12:02:41Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。