論文の概要: Learning Contrastive Feature Representations for Facial Action Unit
Detection
- arxiv url: http://arxiv.org/abs/2402.06165v1
- Date: Fri, 9 Feb 2024 03:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:07:23.887324
- Title: Learning Contrastive Feature Representations for Facial Action Unit
Detection
- Title(参考訳): 顔行動単位検出のためのコントラスト表現の学習
- Authors: Ziqiao Shang, Bin Liu, Fei Teng, Tianrui Li
- Abstract要約: 教師付き信号と自己教師型信号の両方によって強化されたコントラスト学習フレームワークを導入する。
目的は,従来の画素レベルの学習パラダイムから逸脱した識別的特徴の獲得である。
各AUタイプの不均衡分布を軽減するため、少数AUに適した重み付け戦略を採用する。
- 参考スコア(独自算出の注目度): 7.365839694761861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The predominant approach to facial action unit (AU) detection revolves around
a supervised multi-label binary classification problem. Existing methodologies
often encode pixel-level information of AUs, thereby imposing substantial
demands on model complexity and expressiveness. Moreover, this practice
elevates the susceptibility to overfitting due to the presence of noisy AU
labels. In the present study, we introduce a contrastive learning framework
enhanced by both supervised and self-supervised signals. The objective is to
acquire discriminative features, deviating from the conventional pixel-level
learning paradigm within the domain of AU detection. To address the challenge
posed by noisy AU labels, we augment the supervised signal through the
introduction of a self-supervised signal. This augmentation is achieved through
positive sample sampling, encompassing three distinct types of positive sample
pairs. Furthermore, to mitigate the imbalanced distribution of each AU type, we
employ an importance re-weighting strategy tailored for minority AUs. The
resulting loss, denoted as AUNCE, is proposed to encapsulate this strategy. Our
experimental assessments, conducted on two widely-utilized benchmark datasets
(BP4D and DISFA), underscore the superior performance of our approach compared
to state-of-the-art methods in the realm of AU detection.
- Abstract(参考訳): 顔行動単位(AU)検出への主要なアプローチは、教師付きマルチラベルバイナリ分類問題を中心に展開される。
既存の手法はしばしばausのピクセルレベルの情報をエンコードし、モデルの複雑さと表現力に実質的な要求を課す。
さらに、ノイズの多いAUラベルの存在により過度に適合する可能性が高まる。
本研究では,教師付き信号と自己指導型信号によって強化されたコントラスト学習フレームワークを提案する。
その目的は、au検出の領域における従来のピクセルレベルの学習パラダイムから外れた、識別的特徴を得ることである。
ノイズの多いAUラベルによる課題に対処するため,自己教師信号の導入により教師信号の増強を行う。
この増強は3種類の正のサンプル対を含む正のサンプルサンプリングによって達成される。
さらに、各AUタイプの不均衡分布を軽減するために、少数AUに適した重み付け戦略を採用する。
結果として得られた損失はAUNCEと呼ばれ、この戦略をカプセル化するために提案されている。
ベンチマークデータセット(bp4dとdisfa)を用いて実験を行った結果,au検出の最先端手法と比較して,本手法の優れた性能が得られた。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Robust Tiny Object Detection in Aerial Images amidst Label Noise [50.257696872021164]
本研究は,ノイズラベル管理下での微小物体検出の問題に対処する。
本稿では,DN-TOD(Denoising Tiny Object Detector)を提案する。
本手法は,1段と2段の両方のオブジェクト検出パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2024-01-16T02:14:33Z) - CL-Flow:Strengthening the Normalizing Flows by Contrastive Learning for
Better Anomaly Detection [1.951082473090397]
コントラスト学習と2D-Flowを組み合わせた自己教師付き異常検出手法を提案する。
本手法は,主流の教師なし手法と比較して,検出精度が向上し,モデルパラメータが減少し,推論速度が向上することを示す。
BTADデータセットでは,MVTecADデータセットでは画像レベルのAUROCが99.6%,BTADデータセットでは画像レベルのAUROCが96.8%であった。
論文 参考訳(メタデータ) (2023-11-12T10:07:03Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - PASS: Peer-Agreement based Sample Selection for training with Noisy Labels [16.283722126438125]
ノイズラベルサンプルの頻度は、深層学習において重要な課題となり、過剰適合効果を誘発する。
現在の方法論は、しばしばノイズとクリーンなラベルのサンプルを分離するために、小さな損失仮説や特徴に基づく選択に依存している。
本稿では,PASS (Peer-Agreement based Sample Selection) と呼ばれる新しいノイズラベル検出手法を提案する。
論文 参考訳(メタデータ) (2023-03-20T00:35:33Z) - SIOD: Single Instance Annotated Per Category Per Image for Object
Detection [67.64774488115299]
画像内の既存のカテゴリ毎に1つのインスタンスアノテーションのみを必要とする単一インスタンスアノテーションオブジェクト検出(SIOD)を提案する。
WSOD(Inter-task)やSSOD(Inter-image)の相違点からイメージ内の相違点に分解されたSIODは、ラベルなしインスタンスの残りをマイニングする上で、より信頼性が高く豊富な事前知識を提供する。
SIOD設定下では、類似性に基づく擬似ラベル生成モジュール(SPLG)と、Pixelレベルのグループコントラスト学習モジュール(PGCL)からなる、シンプルで効果的なフレームワークであるDual-Mining(DMiner)を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:49:51Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Meta Auxiliary Learning for Facial Action Unit Detection [84.22521265124806]
マルチタスク方式でAU検出と表情認識を学習することを検討する。
マルチタスクシナリオにおける負の転送のため、AU検出タスクの性能を常に向上することはできない。
トレーニングFEサンプルの適応重みをメタラーニング方式で学習し,高相関なFEサンプルを自動的に選択するメタラーニング法(MAL)を提案する。
論文 参考訳(メタデータ) (2021-05-14T02:28:40Z) - Multi-Objective Interpolation Training for Robustness to Label Noise [17.264550056296915]
標準教師付きコントラスト学習はラベル雑音の存在下で劣化することを示す。
コントラスト学習により学習したロバストな特徴表現を利用する新しいラベルノイズ検出手法を提案する。
合成および実世界のノイズベンチマークの実験は、MOIT/MOIT+が最先端の結果を得ることを示した。
論文 参考訳(メタデータ) (2020-12-08T15:01:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。