論文の概要: Class adaptive threshold and negative class guided noisy annotation
robust Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2305.01884v1
- Date: Wed, 3 May 2023 04:28:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 16:00:03.640369
- Title: Class adaptive threshold and negative class guided noisy annotation
robust Facial Expression Recognition
- Title(参考訳): クラス適応しきい値と負のクラス誘導雑音による顔表情認識
- Authors: Darshan Gera, Badveeti Naveen Siva Kumar, Bobbili Veerendra Raj Kumar,
S Balasubramanian
- Abstract要約: ラベル付けは、アノテータ、画像の明快さなどに基づいているため、本質的にデータセットにノイズの多いアノテーションが存在する。
最近の研究は、FERにおけるこのノイズの多いアノテーション問題を解決するためにサンプル選択法を用いている。
私たちの研究では、動的適応しきい値を使用して、信頼できないサンプルから信頼できないサンプルを分離し、信頼できないサンプルのために学習が妨げられないようにします。
- 参考スコア(独自算出の注目度): 3.823356975862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The hindering problem in facial expression recognition (FER) is the presence
of inaccurate annotations referred to as noisy annotations in the datasets.
These noisy annotations are present in the datasets inherently because the
labeling is subjective to the annotator, clarity of the image, etc. Recent
works use sample selection methods to solve this noisy annotation problem in
FER. In our work, we use a dynamic adaptive threshold to separate confident
samples from non-confident ones so that our learning won't be hampered due to
non-confident samples. Instead of discarding the non-confident samples, we
impose consistency in the negative classes of those non-confident samples to
guide the model to learn better in the positive class. Since FER datasets
usually come with 7 or 8 classes, we can correctly guess a negative class by
85% probability even by choosing randomly. By learning "which class a sample
doesn't belong to", the model can learn "which class it belongs to" in a better
manner. We demonstrate proposed framework's effectiveness using quantitative as
well as qualitative results. Our method performs better than the baseline by a
margin of 4% to 28% on RAFDB and 3.3% to 31.4% on FERPlus for various levels of
synthetic noisy labels in the aforementioned datasets.
- Abstract(参考訳): 表情認識(FER)における障害となる問題は、データセットにノイズアノテーションと呼ばれる不正確なアノテーションが存在することである。
これらのノイズの多いアノテーションは、アノテータに対するラベル付けが主観的であること、画像の明快さなど、本質的にデータセットに存在します。
最近の研究は、FERにおけるこのノイズの多いアノテーション問題を解決するためにサンプル選択法を用いている。
私たちの研究では、自信のあるサンプルと信頼できないサンプルを分離するために動的適応しきい値を使い、信頼できないサンプルのために学習が妨げられないようにしています。
信頼できないサンプルを捨てる代わりに、信頼できないサンプルの負のクラスに一貫性を課し、モデルがポジティブなクラスでより良く学ぶように導く。
FERデータセットは通常7または8のクラスから来るので、ランダムに選択しても、負のクラスを85%の確率で正確に推測できる。
サンプルのどのクラスが属していないか」を学習することで、「どのクラスが属しているか」をより良く学習することができる。
定量的および質的結果を用いて,提案フレームワークの有効性を示す。
本手法は,RAFDBでは4%から28%,FERPlusでは3.3%から31.4%の差でベースラインよりも優れた性能を示した。
関連論文リスト
- Learning with Confidence: Training Better Classifiers from Soft Labels [0.0]
教師付き機械学習では、モデルは通常、ハードラベルを持つデータ、すなわちクラスメンバーシップの明確な割り当てを用いて訓練される。
クラスラベル上の離散確率分布として表されるラベルの不確実性を組み込むことで,分類モデルの予測性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2024-09-24T13:12:29Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Neighborhood-Regularized Self-Training for Learning with Few Labels [21.7848889781112]
自己学習の欠点の1つは、誤った擬似ラベルからのラベルノイズに弱いことである。
そこで我々は, 周辺住民によるサンプル選択手法を開発し, ノイズのある擬似ラベルの問題に対処する。
提案したデータ選択戦略は擬似ラベルのノイズを36.8%削減し、最良のベースラインと比較して57.3%の時間を節約する。
論文 参考訳(メタデータ) (2023-01-10T00:07:33Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - NorMatch: Matching Normalizing Flows with Discriminative Classifiers for
Semi-Supervised Learning [8.749830466953584]
Semi-Supervised Learning (SSL)は、小さなラベル付きセットと大量のラベルなしデータを使ってモデルを学習することを目的としている。
この作業では、NorMatchというSSLの新しいフレームワークを紹介します。
数値的および視覚的な結果を通して、NorMatchはいくつかのデータセットで最先端のパフォーマンスを達成することを実証する。
論文 参考訳(メタデータ) (2022-11-17T15:39:18Z) - Dynamic Adaptive Threshold based Learning for Noisy Annotations Robust
Facial Expression Recognition [3.823356975862006]
ノイズの多いアノテーションを扱うための動的FER学習フレームワーク(DNFER)を提案する。
具体的には、DNFERは、選択されたクリーンサンプルを使用した教師ありトレーニングと、すべてのサンプルを使用した教師なし一貫性のあるトレーニングに基づいている。
我々は,RAFDB,FERPlus,SFEW,AffectNetなどの実雑音付きFERデータセットに対して,DNFERの堅牢性を示す。
論文 参考訳(メタデータ) (2022-08-22T12:02:41Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Active Learning by Feature Mixing [52.16150629234465]
本稿では,ALFA-Mixと呼ばれるバッチ能動学習手法を提案する。
予測の不整合を求めることにより,不整合な特徴を持つインスタンスを同定する。
これらの予測の不整合は、モデルが未認識のインスタンスで認識できない特徴を発見するのに役立ちます。
論文 参考訳(メタデータ) (2022-03-14T12:20:54Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。