論文の概要: Uncertain Facial Expression Recognition via Multi-task Assisted
Correction
- arxiv url: http://arxiv.org/abs/2212.07144v1
- Date: Wed, 14 Dec 2022 10:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 15:01:49.847703
- Title: Uncertain Facial Expression Recognition via Multi-task Assisted
Correction
- Title(参考訳): マルチタスクアシスト補正による不確定な表情認識
- Authors: Yang Liu, Xingming Zhang, Janne Kauttonen, and Guoying Zhao
- Abstract要約: MTACと呼ばれる不確実な表情認識に対処するためのマルチタスク支援補正法を提案する。
具体的には、信頼度推定ブロックと重み付け正則化モジュールを用いて、固体試料をハイライトし、バッチ毎に不確かさサンプルを抑圧する。
RAF-DB、AffectNet、AffWild2データセットの実験は、MTACが合成および実際の不確実性に直面した際のベースラインよりも大幅に改善されていることを示した。
- 参考スコア(独自算出の注目度): 43.02119884581332
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep models for facial expression recognition achieve high performance by
training on large-scale labeled data. However, publicly available datasets
contain uncertain facial expressions caused by ambiguous annotations or
confusing emotions, which could severely decline the robustness. Previous
studies usually follow the bias elimination method in general tasks without
considering the uncertainty problem from the perspective of different
corresponding sources. In this paper, we propose a novel method of multi-task
assisted correction in addressing uncertain facial expression recognition
called MTAC. Specifically, a confidence estimation block and a weighted
regularization module are applied to highlight solid samples and suppress
uncertain samples in every batch. In addition, two auxiliary tasks, i.e.,
action unit detection and valence-arousal measurement, are introduced to learn
semantic distributions from a data-driven AU graph and mitigate category
imbalance based on latent dependencies between discrete and continuous
emotions, respectively. Moreover, a re-labeling strategy guided by
feature-level similarity constraint further generates new labels for identified
uncertain samples to promote model learning. The proposed method can flexibly
combine with existing frameworks in a fully-supervised or weakly-supervised
manner. Experiments on RAF-DB, AffectNet, and AffWild2 datasets demonstrate
that the MTAC obtains substantial improvements over baselines when facing
synthetic and real uncertainties and outperforms the state-of-the-art methods.
- Abstract(参考訳): 表情認識のための深層モデルでは,大規模ラベル付きデータを用いた訓練により高い性能を実現する。
しかし、公開データセットにはあいまいな注釈や混乱した感情によって生じる不確定な表情が含まれており、ロバスト性が著しく低下する可能性がある。
先行研究は通常、異なる対応源の観点から不確実性問題を考えることなく、一般的なタスクにおけるバイアス除去法に従う。
本稿では,MTACと呼ばれる不確実な表情認識に対処するためのマルチタスク支援補正手法を提案する。
具体的には、信頼度推定ブロックと重み付け正則化モジュールを用いて、固体試料をハイライトし、バッチ毎に不確かさサンプルを抑圧する。
さらに、データ駆動型AUグラフから意味分布を学習し、個別感情と連続感情の潜伏依存性に基づいてカテゴリー不均衡を緩和する2つの補助的タスク、すなわち、アクション単位検出と価-覚醒測定を導入する。
さらに、特徴レベルの類似性制約によって導かれる再ラベル戦略により、特定された不確定なサンプルのための新しいラベルが生成され、モデル学習が促進される。
提案手法は,既存のフレームワークと柔軟に組み合わせることができる。
RAF-DB、AffectNet、AffWild2データセットの実験は、MTACが合成的および実際の不確実性に直面した際のベースラインを大幅に改善し、最先端の手法よりも優れていることを示した。
関連論文リスト
- Uncertainty Quantification via Hölder Divergence for Multi-View Representation Learning [18.419742575630217]
本稿では,H"older Divergence (HD)に基づく新しいアルゴリズムを導入し,多視点学習の信頼性を高める。
デンプスター・シェーファー理論を通じて、異なるモダリティからの不確実性の統合により、包括的な結果が生成される。
数学的には、HDは実際のデータ分布とモデルの予測分布の間の距離'をよりよく測定できることを証明している。
論文 参考訳(メタデータ) (2024-10-29T04:29:44Z) - D2SP: Dynamic Dual-Stage Purification Framework for Dual Noise Mitigation in Vision-based Affective Recognition [32.74206402632733]
ノイズは、論理的なラベル付けを損なう低品質なキャプチャや、アノテーションのバイアスによる誤ラベルに悩まされるインスタンスから生じます。
textbfSeeking textbfCertain data textbfIn extensive textbfUncertain data (SCIU)
このイニシアチブは、これらの不確実性のDFERデータセットを浄化することを目的としており、トレーニングプロセスでクリーンで検証されたデータのみが使用されることを保証する。
論文 参考訳(メタデータ) (2024-06-24T09:25:02Z) - EPL: Evidential Prototype Learning for Semi-supervised Medical Image Segmentation [0.0]
ラベル付きデータとラベルなしデータの融合利用と,異なるソースからのボクセル確率予測を融合するEvidential Prototype Learning (EPL)を提案する。
この不確実性は、モデルを自己修正するだけでなく、擬似ラベルでガイド付き学習プロセスを改善し、隠れた特徴の構築にフィードバックすることができる。
論文 参考訳(メタデータ) (2024-04-09T10:04:06Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Modeling Multimodal Aleatoric Uncertainty in Segmentation with Mixture
of Stochastic Expert [24.216869988183092]
入力画像にあいまいさが存在する場合、セグメンテーションにおけるデータ独立不確実性(いわゆるアレタリック不確実性)を捉えることに重点を置いている。
本稿では,各専門家ネットワークがアレータティック不確実性の異なるモードを推定する,新しい専門家モデル(MoSE)を提案する。
We developed a Wasserstein-like loss that makes direct minimizes the distribution distance between the MoSE and ground truth annotations。
論文 参考訳(メタデータ) (2022-12-14T16:48:21Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Self-Paced Uncertainty Estimation for One-shot Person Re-Identification [9.17071384578203]
本稿では,単発人物の自己ペース不確実性推定ネットワーク(spue-net)を提案する。
自己ペースサンプリング戦略を導入することで,ラベルなしサンプルの擬似ラベルを反復的に推定し,ラベル付きサンプルを拡張できる。
さらに,局所不確実性推定と決定性推定を併用した協調学習手法を適用し,より優れた隠れ空間特徴抽出を実現する。
論文 参考訳(メタデータ) (2021-04-19T09:20:30Z) - Dive into Ambiguity: Latent Distribution Mining and Pairwise Uncertainty
Estimation for Facial Expression Recognition [59.52434325897716]
DMUE(DMUE)という,アノテーションのあいまいさを2つの視点から解決するソリューションを提案する。
前者に対しては,ラベル空間における潜伏分布をよりよく記述するために,補助的マルチブランチ学習フレームワークを導入する。
後者の場合、インスタンス間の意味的特徴のペアワイズ関係を完全に活用して、インスタンス空間のあいまいさの程度を推定する。
論文 参考訳(メタデータ) (2021-04-01T03:21:57Z) - Data-Uncertainty Guided Multi-Phase Learning for Semi-Supervised Object
Detection [66.10057490293981]
半監視対象検出のためのデータ不確実性誘導多相学習法を提案する。
本手法は,ベースライン手法と比較して異常に動作し,大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-03-29T09:27:23Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。