論文の概要: Learn From All: Erasing Attention Consistency for Noisy Label Facial
Expression Recognition
- arxiv url: http://arxiv.org/abs/2207.10299v1
- Date: Thu, 21 Jul 2022 04:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:03:38.353701
- Title: Learn From All: Erasing Attention Consistency for Noisy Label Facial
Expression Recognition
- Title(参考訳): すべてから学ぶ:ノイズラベル表情認識のための注意の一貫性の消去
- Authors: Yuhang Zhang, Chengrui Wang, Xu Ling and Weihong Deng
- Abstract要約: 新たな特徴学習の観点から,ノイズの多いラベルの扱いについて検討する。
FERモデルでは,ノイズラベルに関連性があると考えられる機能の一部に着目し,ノイズサンプルを記憶していることがわかった。
そこで本研究では,ノイズを抑えるための新しい消去注意一貫性(EAC)法を提案する。
- 参考スコア(独自算出の注目度): 37.83484824542302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Noisy label Facial Expression Recognition (FER) is more challenging than
traditional noisy label classification tasks due to the inter-class similarity
and the annotation ambiguity. Recent works mainly tackle this problem by
filtering out large-loss samples. In this paper, we explore dealing with noisy
labels from a new feature-learning perspective. We find that FER models
remember noisy samples by focusing on a part of the features that can be
considered related to the noisy labels instead of learning from the whole
features that lead to the latent truth. Inspired by that, we propose a novel
Erasing Attention Consistency (EAC) method to suppress the noisy samples during
the training process automatically. Specifically, we first utilize the flip
semantic consistency of facial images to design an imbalanced framework. We
then randomly erase input images and use flip attention consistency to prevent
the model from focusing on a part of the features. EAC significantly
outperforms state-of-the-art noisy label FER methods and generalizes well to
other tasks with a large number of classes like CIFAR100 and Tiny-ImageNet. The
code is available at
https://github.com/zyh-uaiaaaa/Erasing-Attention-Consistency.
- Abstract(参考訳): 騒がしいラベルの表情認識(fer)は、クラス間の類似性とアノテーションのあいまいさのため、従来の騒がしいラベル分類タスクよりも難しい。
最近の研究は、主に大量のサンプルをフィルタリングすることでこの問題に対処している。
本稿では,新しい特徴学習の観点から,ノイズの多いラベルを扱うことを検討する。
FERモデルは、潜伏する真実に繋がる全ての特徴から学ぶのではなく、ノイズラベルに関連すると思われる機能の一部に焦点を当てることでノイズのあるサンプルを記憶している。
そこで本研究では,トレーニングプロセス中のノイズサンプルを自動的に抑制する新しい消去注意一貫性(EAC)手法を提案する。
具体的には、まず顔画像のフリップ意味一貫性を利用して、不均衡な枠組みを設計する。
そして、入力画像をランダムに消去し、フリップアテンション一貫性を使用して、モデルが機能の一部に焦点を当てないようにします。
EACは、最先端のノイズラベルFERメソッドを著しく上回り、CIFAR100やTiny-ImageNetのような多数のクラスを持つ他のタスクによく一般化する。
コードはhttps://github.com/zyh-uaiaaaa/erasing-attention-consistencyで入手できる。
関連論文リスト
- Clean Label Disentangling for Medical Image Segmentation with Noisy
Labels [25.180056839942345]
医用画像のセグメンテーションに焦点を当てた現在の手法は、ノイズラベル問題として知られる誤ったアノテーションに悩まされている。
本稿では,クラス不均衡問題に対処するためのクラス不均衡サンプリング戦略を提案する。
クリーン・ラベル・ディエンタング・フレームワークを、新しいノイズの多い機能支援・クリーン・ラベル・ディエンタング・フレームワークに拡張します。
論文 参考訳(メタデータ) (2023-11-28T07:54:27Z) - CAPro: Webly Supervised Learning with Cross-Modality Aligned Prototypes [93.71909293023663]
クロスモダリティ・アライテッド・プロトタイプ(CAPro)は、視覚表現を正しい意味論で学習する統合コントラスト学習フレームワークである。
CAProは、新しい最先端のパフォーマンスを実現し、オープンセット認識に対する堅牢性を示す。
論文 参考訳(メタデータ) (2023-10-15T07:20:22Z) - Generative Reasoning Integrated Label Noise Robust Deep Image
Representation Learning [0.0]
本稿では,生成的推論とラベル付きノイズ・ロバスト・ディープ・表現学習(GRID)手法を提案する。
本研究の目的は、雑音ラベル下でのIRLの識別的・生成的推論の相補的特性をモデル化することである。
提案手法は、選択されたIRL法とは独立にノイズラベルの干渉を防止しつつ、識別的画像表現を学習する。
論文 参考訳(メタデータ) (2022-12-02T15:57:36Z) - Learning advisor networks for noisy image classification [22.77447144331876]
本稿では,画像分類におけるノイズラベルの問題に対処するためのアドバイザネットワークの概念を紹介する。
私たちはメタラーニング戦略でそれをトレーニングし、メインモデルのトレーニングを通じて適応できるようにしました。
我々はCIFAR10とCIFAR100を合成雑音で試験し,実環境雑音を含むCrothing1Mを用いて最先端の結果を報告する。
論文 参考訳(メタデータ) (2022-11-08T11:44:08Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - ExpertNet: Adversarial Learning and Recovery Against Noisy Labels [8.88412854076574]
本稿では,AmateurとExpertで構成された新しいフレームワークを提案する。
訓練されたアマチュアとエキスパートは、画像とノイズラベルを積極的に利用して画像クラスを推論する。
CIFAR-10, CIFAR-100, およびChrothing1Mの実環境データに対する実験結果から, 提案モデルが幅広い雑音比に対して頑健な分類を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-07-10T11:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。