論文の概要: HiCOMEX: Facial Action Unit Recognition Based on Hierarchy Intensity
Distribution and COMEX Relation Learning
- arxiv url: http://arxiv.org/abs/2009.10892v3
- Date: Thu, 29 Apr 2021 02:04:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:10:04.557904
- Title: HiCOMEX: Facial Action Unit Recognition Based on Hierarchy Intensity
Distribution and COMEX Relation Learning
- Title(参考訳): HiCOMEX:階層的強度分布とCOMEX関係学習に基づく顔行動単位認識
- Authors: Ziqiang Shi and Liu Liu and Zhongling Liu and Rujie Liu and Xiaoyu Mi
and and Kentaro Murase
- Abstract要約: 単一入力画像からのAU検出のための新しいフレームワークを提案する。
アルゴリズムは顔のランドマークを用いて局所的なAUの特徴を検出する。
BP4D と DISFA のベンチマーク実験では、それぞれ 63.7% と 61.8% の F1 スコアが得られた。
- 参考スコア(独自算出の注目度): 12.450173086494944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The detection of facial action units (AUs) has been studied as it has the
competition due to the wide-ranging applications thereof. In this paper, we
propose a novel framework for the AU detection from a single input image by
grasping the \textbf{c}o-\textbf{o}ccurrence and \textbf{m}utual
\textbf{ex}clusion (COMEX) as well as the intensity distribution among AUs. Our
algorithm uses facial landmarks to detect the features of local AUs. The
features are input to a bidirectional long short-term memory (BiLSTM) layer for
learning the intensity distribution. Afterwards, the new AU feature
continuously passed through a self-attention encoding layer and a
continuous-state modern Hopfield layer for learning the COMEX relationships.
Our experiments on the challenging BP4D and DISFA benchmarks without any
external data or pre-trained models yield F1-scores of 63.7\% and 61.8\%
respectively, which shows our proposed networks can lead to performance
improvement in the AU detection task.
- Abstract(参考訳): 顔行動単位(AUs)の検出は、その広範囲な応用により競合するものとして研究されている。
本稿では, 1 つの入力画像からのau検出のための新しい枠組みを提案する。このフレームワークは, aus 間の強度分布と同様に, \textbf{c}o-\textbf{o}ccurrence と \textbf{m}utual \textbf{ex}clusion (comex) を把握できる。
アルゴリズムは顔のランドマークを用いて局所的なAUの特徴を検出する。
これらの特徴は、強度分布を学習するための双方向長短期記憶層(BiLSTM)に入力される。
その後、新しいau機能は、コメックス関係を学習するためのセルフアテンションエンコーディング層および連続状態モダンホップフィールド層を連続的に通過する。
外部データや事前学習モデルのない難解なbp4dおよびdisfaベンチマーク実験では,それぞれ63.7\%と61.8\%のf1スコアが得られた。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Multi-scale Promoted Self-adjusting Correlation Learning for Facial
Action Unit Detection [37.841035367349434]
AU(Facial Action Unit)検出は、感情コンピューティングと社会ロボティクスにおいて重要なタスクである。
以前の方法では、専門家の経験や特定のベンチマークの統計規則に基づいて、固定されたAU相関を用いた。
本稿では,自己調整型AU相関学習(SACL)手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T13:43:48Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Weakly Supervised Regional and Temporal Learning for Facial Action Unit
Recognition [36.350407471391065]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
半教師付き学習を取り入れることで、弱い教師付き地域学習と時間学習というエンド・ツー・エンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T12:02:01Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - Self-Supervised Regional and Temporal Auxiliary Tasks for Facial Action
Unit Recognition [29.664359264758495]
限定アノテーションとモデル性能のギャップを埋めるための補助的AU関連タスクを2つ提案する。
AU関係埋め込みによる地域特徴の識別を強化するため、ランダムに収穫されたAUパッチを復元するRoI塗装タスクを設計する。
顔の筋肉の動的変化を利用するために,単一画像に基づく光フロー推定タスクを提案する。
これら2つの自己監督型補助課題に基づき、AUの局所的特徴、相互関係、動きの手がかりをバックボーンネットワークでよりよく捉えた。
論文 参考訳(メタデータ) (2021-07-30T02:39:45Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Facial Action Unit Intensity Estimation via Semantic Correspondence
Learning with Dynamic Graph Convolution [27.48620879003556]
本稿では,特徴マップ間の意味的対応を確立することによって,AUの潜伏関係を自動的に学習する学習フレームワークを提案する。
熱マップ回帰に基づくネットワークでは、特徴写像はAU強度と位置に関連する豊富な意味情報を保存する。
これはAU強度レベルの共起関係を暗黙的に表す特徴チャネル間の相関をモデル化する動機となっている。
論文 参考訳(メタデータ) (2020-04-20T23:55:30Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。