論文の概要: ReSup: Reliable Label Noise Suppression for Facial Expression
Recognition
- arxiv url: http://arxiv.org/abs/2305.17895v1
- Date: Mon, 29 May 2023 06:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 15:58:05.983583
- Title: ReSup: Reliable Label Noise Suppression for Facial Expression
Recognition
- Title(参考訳): Resup: 表情認識のための信頼性ラベルノイズ抑圧
- Authors: Xiang Zhang, Yan Lu, Huan Yan, Jingyang Huang, Yusheng Ji and Yu Gu
- Abstract要約: 本稿では、ReSupと呼ばれるより信頼性の高いノイズラベル抑圧手法を提案する。
最適な分布モデリングを実現するために、ReSupは全てのサンプルの類似度分布をモデル化する。
ノイズ決定結果の信頼性をさらに高めるため、ReSupは2つのネットワークを使ってノイズ抑制を共同で実現している。
- 参考スコア(独自算出の注目度): 20.74719263734951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of the ambiguous and subjective property of the facial expression
recognition (FER) task, the label noise is widely existing in the FER dataset.
For this problem, in the training phase, current FER methods often directly
predict whether the label of the input image is noised or not, aiming to reduce
the contribution of the noised data in training. However, we argue that this
kind of method suffers from the low reliability of such noise data decision
operation. It makes that some mistakenly abounded clean data are not utilized
sufficiently and some mistakenly kept noised data disturbing the model learning
process. In this paper, we propose a more reliable noise-label suppression
method called ReSup (Reliable label noise Suppression for FER). First, instead
of directly predicting noised or not, ReSup makes the noise data decision by
modeling the distribution of noise and clean labels simultaneously according to
the disagreement between the prediction and the target. Specifically, to
achieve optimal distribution modeling, ReSup models the similarity distribution
of all samples. To further enhance the reliability of our noise decision
results, ReSup uses two networks to jointly achieve noise suppression.
Specifically, ReSup utilize the property that two networks are less likely to
make the same mistakes, making two networks swap decisions and tending to trust
decisions with high agreement. Extensive experiments on three popular
benchmarks show that the proposed method significantly outperforms
state-of-the-art noisy label FER methods by 3.01% on FERPlus becnmarks. Code:
https://github.com/purpleleaves007/FERDenoise
- Abstract(参考訳): 表情認識タスク(fer)のあいまいで主観的な特性のため、ferデータセットにはラベルノイズが広く存在している。
この問題に対し、トレーニング段階では、現在のfer法は、入力画像のラベルがノイズであるか否かを直接予測し、トレーニング中のノイズデータの寄与を減らすことを目的としている。
しかし、このような手法は、そのようなノイズデータ決定操作の信頼性の低いものであると論じる。
これにより、誤ったアバウンドされたクリーンデータが十分に活用されず、モデル学習プロセスに支障をきたすノイズデータを誤って保持する。
本稿では,より信頼性の高いノイズラベル抑制法であるresup(reliable label noise suppression for fer)を提案する。
まず、ノイズを直接予測する代わりに、予測と目標との相違に応じてノイズとクリーンラベルの分布を同時にモデル化してノイズデータを決定する。
特に、最適分布モデリングを達成するために、resupは全てのサンプルの類似性分布をモデル化する。
ノイズ決定結果の信頼性をさらに高めるため、ReSupは2つのネットワークを用いてノイズ抑圧を実現する。
具体的には、ReSupは2つのネットワークが同じミスをする可能性が低いという特性を利用し、2つのネットワークが決定を交換し、高い合意で決定を信頼する傾向がある。
3つの一般的なベンチマーク実験により,提案手法はferPlus becnmarksにおいて,最先端ノイズラベルFER法を3.01%上回る性能を示した。
コード: https://github.com/purpleleaves007/ferdenoise
関連論文リスト
- Confidence-based Reliable Learning under Dual Noises [46.45663546457154]
ディープニューラルネットワーク(DNN)は、様々なコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、オープンワールドから収集されたデータはノイズによって必然的に汚染され、学習されたモデルの有効性を著しく損なう可能性がある。
データノイズ下でDNNを確実に訓練する様々な試みがなされているが、ラベルに存在するノイズと画像に存在するノイズを別々に考慮している。
この作業は、ジョイント(イメージ、ラベル)ノイズの下での信頼性学習のための、最初の統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-10T07:50:34Z) - Is your noise correction noisy? PLS: Robustness to label noise with two
stage detection [16.65296285599679]
本報告では, ノイズが検出された場合に, ノイズの補正精度を向上させることを提案する。
多くの最先端コントリビューションでは、修正された擬似ラベルを推測する前にノイズサンプルを検出する2段階のアプローチが採用されている。
ノイズサンプルの擬似ラベルの正しさと強く相関する単純な測度である擬似ロスを提案する。
論文 参考訳(メタデータ) (2022-10-10T11:32:28Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Robust Face Anti-Spoofing with Dual Probabilistic Modeling [49.14353429234298]
本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
論文 参考訳(メタデータ) (2022-04-27T03:44:18Z) - Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering [59.286567680389766]
ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
DMLのための確率的ランク付けに基づくメモリを用いたインスタンス選択(PRISM)手法を提案する。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
論文 参考訳(メタデータ) (2021-08-03T12:15:25Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。