論文の概要: Objective Class-based Micro-Expression Recognition through Simultaneous
Action Unit Detection and Feature Aggregation
- arxiv url: http://arxiv.org/abs/2012.13148v2
- Date: Tue, 23 Mar 2021 04:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:15:29.364244
- Title: Objective Class-based Micro-Expression Recognition through Simultaneous
Action Unit Detection and Feature Aggregation
- Title(参考訳): 行動単位検出と特徴集約による目的クラスに基づくマイクロ圧縮認識
- Authors: Ling Zhou, Qirong Mao, Ming Dong
- Abstract要約: 目的クラスに基づくマイクロ圧縮認識(MER)のための新しいディープニューラルネットワークモデルを提案する。
我々のモデルは同時にアクションユニット(AU)を検出し、AUレベルの特徴をマイクロ圧縮レベル表現に集約する。
私たちのアプローチは、MERの現在の最新技術を大幅に上回ります。
- 参考スコア(独自算出の注目度): 18.35953886595087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-Expression Recognition (MER) is a challenging task as the subtle
changes occur over different action regions of a face. Changes in facial action
regions are formed as Action Units (AUs), and AUs in micro-expressions can be
seen as the actors in cooperative group activities. In this paper, we propose a
novel deep neural network model for objective class-based MER, which
simultaneously detects AUs and aggregates AU-level features into
micro-expression-level representation through Graph Convolutional Networks
(GCN). Specifically, we propose two new strategies in our AU detection module
for more effective AU feature learning: the attention mechanism and the
balanced detection loss function. With those two strategies, features are
learned for all the AUs in a unified model, eliminating the error-prune
landmark detection process and tedious separate training for each AU. Moreover,
our model incorporates a tailored objective class-based AU knowledge-graph,
which facilitates the GCN to aggregate the AU-level features into a
micro-expression-level feature representation. Extensive experiments on two
tasks in MEGC 2018 show that our approach significantly outperforms the current
state-of-the-arts in MER. Additionally, we also report our single model-based
micro-expression AU detection results.
- Abstract(参考訳): 顔の異なる動作領域で微妙な変化が起こるため、マイクロ表現認識(mer)は難しい課題である。
顔のアクション領域の変化はアクションユニット(AU)として形成され、マイクロ表現におけるAUは協調グループ活動におけるアクターとして見ることができる。
本稿では,auレベルの特徴を同時に検出し,グラフ畳み込みネットワーク(gcn)によるマイクロ表現レベル表現に集約する,客観的クラスベースmerのための深層ニューラルネットワークモデルを提案する。
具体的には,より効果的なau特徴学習のためのau検出モジュールにおいて,注意機構とバランスド検出損失関数という2つの新しい戦略を提案する。
これら2つの戦略により、すべてのauを統一したモデルで学習し、エラー検出プロセスと各auに対する退屈な分離トレーニングを排除する。
さらに,本モデルでは,GCNがAUレベルの特徴をマイクロ圧縮レベルの特徴表現に集約しやすくする目的クラスベースAUナレッジグラフを組み込んでいる。
MEGC 2018における2つのタスクに関する大規模な実験は、我々のアプローチがMERの最先端技術よりも大幅に優れていることを示している。
さらに, 単一モデルによるau検出結果についても報告する。
関連論文リスト
- Facial Action Unit Detection by Adaptively Constraining Self-Attention and Causally Deconfounding Sample [53.23474626420103]
顔行動単位(AU)検出は、AUの微妙さ、ダイナミクス、多様性のため、依然として困難な課題である。
本稿では,自己注意重み分布を適応的に制限することで,AC2Dと呼ばれる新しいAU検出フレームワークを提案する。
提案手法は,最先端のAU検出手法と比較して,挑戦的なベンチマークによる競合性能を実現する。
論文 参考訳(メタデータ) (2024-10-02T05:51:24Z) - Local Region Perception and Relationship Learning Combined with Feature
Fusion for Facial Action Unit Detection [12.677143408225167]
ABAW(Affective Behavior Analysis in the-wild)に関するCVPR 2023コンペティションについて紹介する。
具体的には、AU検出に関連する顔の局所的特徴を効果的に抽出するために、局所的知覚モジュールを用いる。
また、グラフニューラルネットワークに基づくリレーショナル学習モジュールを使用して、AU間の関係をキャプチャする。
論文 参考訳(メタデータ) (2023-03-15T11:59:24Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Part-aware Prototypical Graph Network for One-shot Skeleton-based Action
Recognition [57.86960990337986]
ワンショットスケルトンに基づくアクション認識は、ベースクラスから新しいクラスへの変換可能な表現を学習する上で、ユニークな課題となる。
単発骨格に基づく行動認識のためのパートアウェアなプロトタイプ表現を提案する。
本手法の有効性を2つの公開骨格に基づく行動認識データセットに示す。
論文 参考訳(メタデータ) (2022-08-19T04:54:56Z) - MGRR-Net: Multi-level Graph Relational Reasoning Network for Facial Action Units Detection [16.261362598190807]
FACS(Facial Action Coding System)は、顔画像中のアクションユニット(AU)を符号化する。
我々は、AU特徴の符号化は、地域的特徴とグローバルな特徴の間のリッチな文脈情報を捉えないかもしれないと論じる。
顔AU検出のためのマルチレベルグラフ推論ネットワーク(MGRR-Net)を提案する。
論文 参考訳(メタデータ) (2022-04-04T09:47:22Z) - Weakly Supervised Regional and Temporal Learning for Facial Action Unit
Recognition [36.350407471391065]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
半教師付き学習を取り入れることで、弱い教師付き地域学習と時間学習というエンド・ツー・エンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T12:02:01Z) - Meta Auxiliary Learning for Facial Action Unit Detection [84.22521265124806]
マルチタスク方式でAU検出と表情認識を学習することを検討する。
マルチタスクシナリオにおける負の転送のため、AU検出タスクの性能を常に向上することはできない。
トレーニングFEサンプルの適応重みをメタラーニング方式で学習し,高相関なFEサンプルを自動的に選択するメタラーニング法(MAL)を提案する。
論文 参考訳(メタデータ) (2021-05-14T02:28:40Z) - MER-GCN: Micro Expression Recognition Based on Relation Modeling with
Graph Convolutional Network [24.69269586706002]
本稿では、3D ConvNets を用いて AU 特徴を抽出し、GCN 層を適用して ME 分類のための AU ノード間の依存関係の探索を行う、エンドツーエンドな AU グラフ分類ネットワーク MER-GCN を提案する。
我々の知る限り、この研究はAUsベースのGCNを用いたMER(Micro-Expression Recognition)のための最初のエンドツーエンドアーキテクチャである。
論文 参考訳(メタデータ) (2020-04-19T17:25:30Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。