論文の概要: Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2208.10221v1
- Date: Mon, 22 Aug 2022 12:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:31:36.477895
- Title: Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition
- Title(参考訳): 雑音下でのロバストな表情認識のための動的適応しきい値学習
- Authors: Darshan Gera, Naveen Siva Kumar Badveeti, Bobbili Veerendra Raj Kumar
and S Balasubramanian
- Abstract要約: ノイズの多いアノテーションを扱うための動的FER学習フレームワーク(DNFER)を提案する。
具体的には、DNFERは、選択されたクリーンサンプルを使用した教師ありトレーニングと、すべてのサンプルを使用した教師なし一貫性のあるトレーニングに基づいている。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
- 参考スコア(独自算出の注目度): 3.823356975862006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The real-world facial expression recognition (FER) datasets suffer from noisy
annotations due to crowd-sourcing, ambiguity in expressions, the subjectivity
of annotators and inter-class similarity. However, the recent deep networks
have strong capacity to memorize the noisy annotations leading to corrupted
feature embedding and poor generalization. To handle noisy annotations, we
propose a dynamic FER learning framework (DNFER) in which clean samples are
selected based on dynamic class specific threshold during training.
Specifically, DNFER is based on supervised training using selected clean
samples and unsupervised consistent training using all the samples. During
training, the mean posterior class probabilities of each mini-batch is used as
dynamic class-specific threshold to select the clean samples for supervised
training. This threshold is independent of noise rate and does not need any
clean data unlike other methods. In addition, to learn from all samples, the
posterior distributions between weakly-augmented image and strongly-augmented
image are aligned using an unsupervised consistency loss. We demonstrate the
robustness of DNFER on both synthetic as well as on real noisy annotated FER
datasets like RAFDB, FERPlus, SFEW and AffectNet.
- Abstract(参考訳): 実世界の表情認識(FER)データセットは、クラウドソーシング、表現の曖昧さ、アノテーションの主観性、クラス間の類似性によるノイズの多いアノテーションに悩まされている。
しかし、近年のディープネットワークはノイズの多いアノテーションを記憶する能力が強く、機能埋め込みや一般化の貧弱につながる。
ノイズの多いアノテーションを扱うために、トレーニング中に動的クラス固有のしきい値に基づいてクリーンサンプルを選択する動的FER学習フレームワーク(DNFER)を提案する。
具体的には、dnferは選択されたクリーンサンプルを用いた教師付きトレーニングと、すべてのサンプルを用いた教師なし一貫したトレーニングに基づいている。
訓練中、各ミニバッチの平均後方クラス確率を動的クラス固有の閾値として使用し、教師付きトレーニングのクリーンサンプルを選択する。
この閾値はノイズレートとは独立しており、他の方法とは異なりクリーンなデータを必要としない。
さらに、全てのサンプルから学習するために、弱増強画像と強増強画像との間の後部分布を教師なし整合損失を用いて整列する。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
関連論文リスト
- Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - ASM: Adaptive Sample Mining for In-The-Wild Facial Expression
Recognition [19.846612021056565]
適応サンプルマイニング(Adaptive Sample Mining)と呼ばれる新しい手法を導入し,各表現カテゴリのあいまいさとノイズに対処する。
本手法は、曖昧性とノイズの両方を効果的にマイニングし、合成ノイズとオリジナルデータセットの両方でSOTA法より優れる。
論文 参考訳(メタデータ) (2023-10-09T11:18:22Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Context-based Virtual Adversarial Training for Text Classification with
Noisy Labels [1.9508698179748525]
本研究では,テキスト分類器が雑音ラベルに過度に収まらないよう,コンテキストベースの仮想対位訓練(ConVAT)を提案する。
従来の手法とは異なり,提案手法は入力よりも文脈レベルで逆学習を行う。
2種類のラベルノイズを持つ4つのテキスト分類データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-29T14:19:49Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。