論文の概要: Upper, Middle and Lower Region Learning for Facial Action Unit Detection
- arxiv url: http://arxiv.org/abs/2002.04023v2
- Date: Tue, 11 Feb 2020 12:58:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:08:15.918509
- Title: Upper, Middle and Lower Region Learning for Facial Action Unit Detection
- Title(参考訳): 顔行動単位検出のための上・中・下層領域学習
- Authors: Yao Xia
- Abstract要約: 3つの領域に基づくアテンションネットワーク(TRA-Net)という,エンドツーエンドのディープラーニングフレームワークを提案する。
TRA-Netはハードアテンションモジュールを使用して3つの特徴マップを抽出する。
AU1, AU2, AU4の検出において最も高いF1スコアを達成し, 最先端の手法と比較して高い精度が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Facial action units (AUs) detection is fundamental to facial expression
analysis. As AU occurs only in a small area of the face, region-based learning
has been widely recognized useful for AU detection. Most region-based studies
focus on a small region where the AU occurs. Focusing on a specific region
helps eliminate the influence of identity, but bringing a risk for losing
information. It is challenging to find balance. In this study, I propose a
simple strategy. I divide the face into three broad regions, upper, middle, and
lower region, and group AUs based on where it occurs. I propose a new
end-to-end deep learning framework named three regions based attention network
(TRA-Net). After extracting the global feature, TRA-Net uses a hard attention
module to extract three feature maps, each of which contains only a specific
region. Each region-specific feature map is fed to an independent branch. For
each branch, three continuous soft attention modules are used to extract
higher-level features for final AU detection. In the DISFA dataset, this model
achieves the highest F1 scores for the detection of AU1, AU2, and AU4, and
produces the highest accuracy in comparison with the state-of-the-art methods.
- Abstract(参考訳): 顔表情分析には、顔行動単位(AUs)検出が不可欠である。
AUは顔のごく一部にしか発生しないため、AU検出に有用な領域ベース学習が広く認識されている。
ほとんどの地域に基づく研究は、AUが起こる小さな地域に焦点を当てている。
特定の領域に集中することはアイデンティティの影響を排除するのに役立つが、情報を失うリスクをもたらす。
バランスを見つけるのは困難です。
本研究では,簡単な戦略を提案する。
顔は、上、中、下の3つの広い領域に分け、それが起こる場所に基づいてグループAUに分けます。
本稿では,3つの領域ベースアテンションネットワーク(TRA-Net)という,エンドツーエンドのディープラーニングフレームワークを提案する。
グローバルな特徴を抽出した後、TRA-Netはハードアテンションモジュールを使用して3つの特徴マップを抽出する。
各地域固有の特徴マップは独立したブランチに供給される。
各ブランチに対して、3つの連続ソフトアテンションモジュールを使用して最終AU検出のための高レベル特徴を抽出する。
DISFAデータセットでは、このモデルがAU1, AU2, AU4の検出において最も高いF1スコアを達成し、最先端の手法と比較して高い精度で生成する。
関連論文リスト
- ECEA: Extensible Co-Existing Attention for Few-Shot Object Detection [52.16237548064387]
Few-shot Object Detection (FSOD) は、非常に少数のアノテーション付きサンプルからオブジェクトを識別する。
近年のFSOD法の多くは、2段階の学習パラダイムを適用しており、このパラダイムは豊富なベースクラスから学んだ知識を、グローバルな特徴を学習することで、数発の検知を補助する。
本研究では,局所的な部分に応じて大域的オブジェクトを推論するための拡張可能共存注意(ECEA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-15T06:55:43Z) - Self-supervised Facial Action Unit Detection with Region and Relation
Learning [5.182661263082065]
地域と関係学習を用いたAU検出のための新しい自己教師型フレームワークを提案する。
改良された最適輸送(OT)アルゴリズムを導入し,AU間の相関特性を利用した。
Swin Transformerは、機能学習中に各AU領域内の長距離依存関係をモデル化するために利用される。
論文 参考訳(メタデータ) (2023-03-10T05:22:45Z) - Facial Action Units Detection Aided by Global-Local Expression Embedding [36.78982474775454]
我々はGlobal-Local Face Expressions Embedding(GLEE-Net)による新しいAU検出フレームワークを開発した。
我々のGLEE-Netは、AU検出のためのアイデンティティ非依存の表現特徴を抽出する3つのブランチから構成されている。
提案手法は, 広く使用されているdisFA, BP4D, BP4D+データセットの最先端性を大幅に向上させる。
論文 参考訳(メタデータ) (2022-10-25T02:35:32Z) - MGRR-Net: Multi-level Graph Relational Reasoning Network for Facial Action Units Detection [16.261362598190807]
FACS(Facial Action Coding System)は、顔画像中のアクションユニット(AU)を符号化する。
我々は、AU特徴の符号化は、地域的特徴とグローバルな特徴の間のリッチな文脈情報を捉えないかもしれないと論じる。
顔AU検出のためのマルチレベルグラフ推論ネットワーク(MGRR-Net)を提案する。
論文 参考訳(メタデータ) (2022-04-04T09:47:22Z) - PRA-Net: Point Relation-Aware Network for 3D Point Cloud Analysis [56.91758845045371]
我々はポイント関係認識ネットワーク(PRA-Net)という新しいフレームワークを提案する。
領域内構造学習(ISL)モジュールと領域間関係学習(IRL)モジュールで構成されている。
形状分類,キーポイント推定,部分セグメンテーションを含む複数の3次元ベンチマーク実験により,PRA-Netの有効性と性能が検証された。
論文 参考訳(メタデータ) (2021-12-09T13:24:43Z) - ReDAL: Region-based and Diversity-aware Active Learning for Point Cloud
Semantic Segmentation [28.478555264574865]
ReDALは、ラベル取得のために、情報的かつ多様なサブシーン領域のみを自動的に選択することを目的としている。
冗長アノテーションを避けるため,多様性を考慮した選択アルゴリズムも開発されている。
実験の結果,本手法は従来のアクティブラーニング手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-07-25T09:40:48Z) - Multi-attentional Deepfake Detection [79.80308897734491]
ディープフェイクによる顔の偽造はインターネットに広まり、深刻な社会的懸念を引き起こしている。
新たなマルチアテンテーショナルディープフェイク検出ネットワークを提案する。
具体的には,1)ネットワークを異なる局所的部分へ配置するための複数の空間的注意ヘッド,2)浅い特徴の微妙なアーティファクトをズームするテクスチャ的特徴拡張ブロック,3)低レベルなテクスチャ特徴と高レベルなセマンティクス特徴をアグリゲートする,の3つの構成要素からなる。
論文 参考訳(メタデータ) (2021-03-03T13:56:14Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z) - J$\hat{\text{A}}$A-Net: Joint Facial Action Unit Detection and Face
Alignment via Adaptive Attention [57.51255553918323]
本稿では,共同AU検出と顔アライメントのための新しいエンドツーエンドディープラーニングフレームワークを提案する。
我々のフレームワークは、BP4D, DISFA, GFT, BP4D+ベンチマークにおいて、最先端のAU検出方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2020-03-18T12:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。