論文の概要: Consensual Collaborative Training And Knowledge Distillation Based
Facial Expression Recognition Under Noisy Annotations
- arxiv url: http://arxiv.org/abs/2107.04746v1
- Date: Sat, 10 Jul 2021 03:37:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 09:33:10.296032
- Title: Consensual Collaborative Training And Knowledge Distillation Based
Facial Expression Recognition Under Noisy Annotations
- Title(参考訳): 雑音下での表情認識に基づくコンセンサス協調学習と知識蒸留
- Authors: Darshan Gera, S. Balasubramanian
- Abstract要約: 本研究は,CCT(Consensual Collaborative Training)フレームワークと呼ばれる,ノイズラベルの存在下での効果的なトレーニング戦略を提案する。
CCTは3つのネットワークを共同で管理損失と一貫性損失の凸の組み合わせで訓練する。
FERDB (90.84%)、FERPlus (89.99%)、AffectNet (66%)のベンチマークで最先端のパフォーマンスが報告されている。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Presence of noise in the labels of large scale facial expression datasets has
been a key challenge towards Facial Expression Recognition (FER) in the wild.
During early learning stage, deep networks fit on clean data. Then, eventually,
they start overfitting on noisy labels due to their memorization ability, which
limits FER performance. This work proposes an effective training strategy in
the presence of noisy labels, called as Consensual Collaborative Training (CCT)
framework. CCT co-trains three networks jointly using a convex combination of
supervision loss and consistency loss, without making any assumption about the
noise distribution. A dynamic transition mechanism is used to move from
supervision loss in early learning to consistency loss for consensus of
predictions among networks in the later stage. Inference is done using a single
network based on a simple knowledge distillation scheme. Effectiveness of the
proposed framework is demonstrated on synthetic as well as real noisy FER
datasets. In addition, a large test subset of around 5K images is annotated
from the FEC dataset using crowd wisdom of 16 different annotators and reliable
labels are inferred. CCT is also validated on it. State-of-the-art performance
is reported on the benchmark FER datasets RAFDB (90.84%) FERPlus (89.99%) and
AffectNet (66%). Our codes are available at https://github.com/1980x/CCT.
- Abstract(参考訳): 大規模表情データセットのラベルにおけるノイズの存在は、野生における顔表情認識(FER)にとって重要な課題である。
学習の初期段階では、ディープネットワークはクリーンデータに適合する。
そして最終的に、FER性能を制限する記憶能力のために、ノイズの多いラベルに過度に適合し始める。
本研究は,CCT(Consensual Collaborative Training)フレームワークと呼ばれる,ノイズラベルの存在下での効果的なトレーニング戦略を提案する。
CCTは、騒音分布を仮定することなく、監督損失と整合損失の凸結合を用いて3つのネットワークを共同で訓練する。
動的遷移機構は、早期学習における監督損失から、後期のネットワーク間の予測のコンセンサスに対する一貫性損失への移行に使用される。
単純な知識蒸留スキームに基づいた単一のネットワークを用いて推論を行う。
提案手法の有効性は,合成および実雑音FERデータセット上で実証される。
さらに、約5K画像の大規模なテストサブセットを、16の異なるアノテータの群衆知恵を使ってFECデータセットからアノテートし、信頼できるラベルを推測する。
cctもその上で検証される。
FERDB (90.84%) FERPlus (89.99%) および AffectNet (66%) のベンチマークでは、最先端のパフォーマンスが報告されている。
私たちのコードはhttps://github.com/1980x/CCTで公開されています。
関連論文リスト
- SSP-RACL: Classification of Noisy Fundus Images with Self-Supervised Pretraining and Robust Adaptive Credal Loss [3.8739860035485143]
基礎画像分類はコンピュータの診断タスクにおいて重要であるが、ラベルノイズはディープニューラルネットワークの性能を著しく損なう。
本稿では,ロバスト適応クレダルロス (SSP-RACL) を用いた自己監督型事前訓練(Self-Supervised Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-09-25T02:41:58Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition [3.823356975862006]
ノイズの多いアノテーションを扱うための動的FER学習フレームワーク(DNFER)を提案する。
具体的には、DNFERは、選択されたクリーンサンプルを使用した教師ありトレーニングと、すべてのサンプルを使用した教師なし一貫性のあるトレーニングに基づいている。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
論文 参考訳(メタデータ) (2022-08-22T12:02:41Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Consistency Regularization Can Improve Robustness to Label Noise [4.340338299803562]
本稿では,雑音ラベルに対するトレーニング時ロバスト性に対する整合正則化の関連性について実験的に検討する。
整合性を促進する単純な損失関数は、ノイズをラベル付けするためのモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-10-04T08:15:08Z) - Affect Expression Behaviour Analysis in the Wild using Consensual
Collaborative Training [2.538209532048867]
本報告では,ABAW(Affective Behaviour Analysis in-the-wild)2021コンペティションに使用したConsensual Collaborative Training(CCT)フレームワークについて述べる。
CCTは3つのネットワークを共同で管理損失と一貫性損失の凸の組み合わせで訓練する。
協調トレーニングは全体的なエラーを低減し、一貫性の低下はノイズの多いサンプルへの過度な適合を防ぐ。
論文 参考訳(メタデータ) (2021-07-08T04:28:21Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Coresets for Robust Training of Neural Networks against Noisy Labels [78.03027938765746]
本稿では,雑音ラベルで訓練したディープネットワークの堅牢なトレーニングのための理論的保証を強く備えた新しい手法を提案する。
我々は、ほぼ低ランクのヤコビ行列を提供するクリーンなデータポイントの重み付き部分集合(コアセット)を選択する。
我々の実験は、我々の理論を裏付け、我々のサブセットで訓練されたディープネットワークが、最先端技術よりもはるかに優れたパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2020-11-15T04:58:11Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Suppressing Uncertainties for Large-Scale Facial Expression Recognition [81.51495681011404]
本稿では,不確実性を効果的に抑制し,深層ネットワークが不確実な顔画像に過度に収まらないような,シンプルで効率的なセルフキュアネットワーク(SCN)を提案する。
公開ベンチマークの結果、我々のSCNは現在の最先端メソッドよりも、RAF-DBで textbf88.14%、AffectNetで textbf60.23%、FERPlusで textbf89.35% を上回りました。
論文 参考訳(メタデータ) (2020-02-24T17:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。