論文の概要: Meta Auxiliary Learning for Facial Action Unit Detection
- arxiv url: http://arxiv.org/abs/2105.06620v1
- Date: Fri, 14 May 2021 02:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:44:32.939533
- Title: Meta Auxiliary Learning for Facial Action Unit Detection
- Title(参考訳): 顔行動単位検出のためのメタ補助学習
- Authors: Yong Li, Shiguang Shan
- Abstract要約: マルチタスク方式でAU検出と表情認識を学習することを検討する。
マルチタスクシナリオにおける負の転送のため、AU検出タスクの性能を常に向上することはできない。
トレーニングFEサンプルの適応重みをメタラーニング方式で学習し,高相関なFEサンプルを自動的に選択するメタラーニング法(MAL)を提案する。
- 参考スコア(独自算出の注目度): 84.22521265124806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of deep neural networks on facial action unit (AU)
detection, better performance depends on a large number of training images with
accurate AU annotations. However, labeling AU is time-consuming, expensive, and
error-prone. Considering AU detection and facial expression recognition (FER)
are two highly correlated tasks, and facial expression (FE) is relatively easy
to annotate, we consider learning AU detection and FER in a multi-task manner.
However, the performance of the AU detection task cannot be always enhanced due
to the negative transfer in the multi-task scenario. To alleviate this issue,
we propose a Meta Auxiliary Learning method (MAL) that automatically selects
highly related FE samples by learning adaptative weights for the training FE
samples in a meta learning manner. The learned sample weights alleviate the
negative transfer from two aspects: 1) balance the loss of each task
automatically, and 2) suppress the weights of FE samples that have large
uncertainties. Experimental results on several popular AU datasets demonstrate
MAL consistently improves the AU detection performance compared with the
state-of-the-art multi-task and auxiliary learning methods. MAL automatically
estimates adaptive weights for the auxiliary FE samples according to their
semantic relevance with the primary AU detection task.
- Abstract(参考訳): 顔動作単位(au)検出におけるディープニューラルネットワークの成功にもかかわらず、優れたパフォーマンスは正確なauアノテーションを持つ多数のトレーニングイメージに依存する。
しかし、AUのラベル付けは時間がかかり、高価で、エラーを起こしやすい。
AU検出と顔表情認識(FER)は2つの非常に相関したタスクであり,顔表情(FE)は比較的簡単に注釈を付けることができるので,マルチタスクでAU検出とFERを学習することを検討する。
しかし、マルチタスクシナリオにおける負の転送のため、AU検出タスクの性能を常に向上することはできない。
そこで本研究では,feサンプルの適応度を学習し,関連するfeサンプルを自動的に選択するメタ補助学習手法(mal)を提案する。
学習したサンプル重み付けは、2つの側面から負の伝達を緩和する: 1)各タスクの損失を自動的にバランスさせ、2)大きな不確実性を持つfeサンプルの重みを抑制する。
いくつかの人気のあるAUデータセットの実験結果から、MALは最先端のマルチタスクおよび補助学習手法と比較して、AU検出性能を一貫して改善することを示した。
MALは、主AU検出タスクと意味的関連性に応じて、補助FEサンプルの適応重量を自動的に推定する。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークが組み込まれている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - Learning Contrastive Feature Representations for Facial Action Unit Detection [13.834540490373818]
顔アクションユニット(AU)検出は、AUが活性化する際の微妙な特徴差を検出するという課題に長年遭遇してきた。
本稿では、自己教師付き信号と教師付き信号の両方を組み込んだAU検出を目的とした、新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-09T03:48:20Z) - Multi-scale Promoted Self-adjusting Correlation Learning for Facial
Action Unit Detection [37.841035367349434]
AU(Facial Action Unit)検出は、感情コンピューティングと社会ロボティクスにおいて重要なタスクである。
以前の方法では、専門家の経験や特定のベンチマークの統計規則に基づいて、固定されたAU相関を用いた。
本稿では,自己調整型AU相関学習(SACL)手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:43:48Z) - DETA: Denoised Task Adaptation for Few-Shot Learning [135.96805271128645]
数ショット学習におけるテスト時間タスク適応は、訓練済みのタスク非依存モデルに適応してタスク固有の知識を取得することを目的としている。
少数のサンプルしか得られないため、支持試料からのイメージノイズ(Xノイズ)またはラベルノイズ(Yノイズ)の悪影響を著しく増幅することができる。
Denoized Task Adaptation (DETA) は、既存のタスク適応アプローチに対して、最初に統合された画像とラベルをデノベートするフレームワークである。
論文 参考訳(メタデータ) (2023-03-11T05:23:20Z) - Towards Discriminative and Transferable One-Stage Few-Shot Object
Detectors [3.9189402702217344]
Few-shot Object Detection (FSOD) は、少数のサンプルを与えられた新しいクラスを学習することでこの問題に対処することを目的としている。
2段と1段のFSODの性能差は, 主に識別性の弱いためである。
これらの制約に対処するため,高密度メタ検出器のための前景サンプル数を増大させるマルチウェイサポートトレーニング戦略であるFew-shot RetinaNet(FSRN)を提案する。
論文 参考訳(メタデータ) (2022-10-11T20:58:25Z) - Cross-subject Action Unit Detection with Meta Learning and
Transformer-based Relation Modeling [7.395396464857193]
メタラーニングに基づくクロスオブジェクトAU検出モデルを提案する。
複数のAUの潜伏関係を学習するために、トランスフォーマーに基づく関係学習モジュールを導入する。
提案手法は,2つの公開データセットBP4DとdisFAにおいて,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-18T08:17:59Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Deep Multi-task Multi-label CNN for Effective Facial Attribute
Classification [53.58763562421771]
DMM-CNN(ディープ・マルチタスク・マルチラベル・CNN)による効果的な顔属性分類(FAC)を提案する。
具体的には、DMM-CNNは、2つの密接に関連するタスク(顔のランドマーク検出とFAC)を共同で最適化し、マルチタスク学習を活用することにより、FACの性能を向上させる。
2つの異なるネットワークアーキテクチャは2つの属性のグループの特徴を抽出するために設計され、トレーニング中に各顔属性に損失重みを自動的に割り当てる新しい動的重み付け方式が提案されている。
論文 参考訳(メタデータ) (2020-02-10T12:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。