論文の概要: Magnifying Subtle Facial Motions for Effective 4D Expression Recognition
- arxiv url: http://arxiv.org/abs/2105.02319v1
- Date: Wed, 5 May 2021 20:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 01:17:03.457106
- Title: Magnifying Subtle Facial Motions for Effective 4D Expression Recognition
- Title(参考訳): 有効4次元表情認識のための大小顔面運動
- Authors: Qingkai Zhen, Di Huang, Yunhong Wang, Hassen Drira, Boulbaba Ben Amor,
Mohamed Daoudi
- Abstract要約: 3D面の流れをまず解析し、空間的な変形を捉えます。
これらの変形の得られた時間的進化は、拡大法に供給される。
本論文の主な貢献である後者では、感情分類性能を高める微妙な(隠れた)変形を明らかにすることができる。
- 参考スコア(独自算出の注目度): 56.806738404887824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, an effective pipeline to automatic 4D Facial Expression
Recognition (4D FER) is proposed. It combines two growing but disparate ideas
in Computer Vision -- computing the spatial facial deformations using tools
from Riemannian geometry and magnifying them using temporal filtering. The flow
of 3D faces is first analyzed to capture the spatial deformations based on the
recently-developed Riemannian approach, where registration and comparison of
neighboring 3D faces are led jointly. Then, the obtained temporal evolution of
these deformations are fed into a magnification method in order to amplify the
facial activities over the time. The latter, main contribution of this paper,
allows revealing subtle (hidden) deformations which enhance the emotion
classification performance. We evaluated our approach on BU-4DFE dataset, the
state-of-art 94.18% average performance and an improvement that exceeds 10% in
classification accuracy, after magnifying extracted geometric features
(deformations), are achieved.
- Abstract(参考訳): 本稿では,4次元表情自動認識(4d fer)のための効果的なパイプラインを提案する。
コンピュータビジョンの2つの成長するが、異なるアイデアを組み合わせる - リーマン幾何学のツールを使って空間的な顔の変形を計算し、時間的フィルタリングを使ってそれらを拡大する。
3次元面の流れを最初に解析し、最近開発されたリーマン的手法に基づき空間的変形を捉え、隣接する3次元面の登録と比較を共同で行う。
そして、得られた変形の時間的進化を、時間とともに顔の活動を増幅するために倍率法に入力する。
本論文の主な貢献である後者では、感情分類性能を高める微妙な(隠れた)変形を明らかにすることができる。
抽出された幾何学的特徴(変形)を最大化した後,bu-4dfeデータセット,94.18%の平均性能,分類精度が10%以上向上した。
関連論文リスト
- Semantic-aware One-shot Face Re-enactment with Dense Correspondence
Estimation [100.60938767993088]
ワンショットの顔の再現は、ソースと駆動する顔の同一性ミスマッチのため、難しい作業である。
本稿では,3次元形態素モデル(3DMM)を明示的な顔のセマンティックな分解とアイデンティティの絡み合いに利用することを提案する。
論文 参考訳(メタデータ) (2022-11-23T03:02:34Z) - LoRD: Local 4D Implicit Representation for High-Fidelity Dynamic Human
Modeling [69.56581851211841]
そこで我々は,LoRDという,動的に衣を着る人間の局所的な4D暗黙表現を提案する。
私たちの重要な洞察は、ネットワークがローカルな部分レベルの表現の潜在コードを学ぶように促すことです。
LoRDは、4D人間を表現する能力が強く、実用上の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-18T03:49:44Z) - Are 3D Face Shapes Expressive Enough for Recognising Continuous Emotions
and Action Unit Intensities? [1.2233362977312945]
この研究は、パラメトリックな3次元顔形状アライメントモデルに基づく有望な代替手段に焦点を当てている。
我々は,最近の3次元顔アライメントモデルであるExpNet, 3DDFA-V2, DECA, EMOCAをベンチマークした。
AUs 4, 6, 10, 12, 25の3次元顔の特徴はAUs4, 6, 10, 12, 25の2次元顔の特徴と同等であるが,AUs全体の特徴ではない。
論文 参考訳(メタデータ) (2022-07-03T20:19:06Z) - H4D: Human 4D Modeling by Learning Neural Compositional Representation [75.34798886466311]
この研究は、動的人間に対するコンパクトで構成的な表現を効果的に学習できる新しい枠組みを提示する。
単純で効果的な線形運動モデルを提案し, 粗く規則化された動き推定を行う。
本手法は, 高精度な動作と詳細な形状を持つ動的ヒトの回復に有効であるだけでなく, 様々な4次元人間関連タスクにも有効であることを示す。
論文 参考訳(メタデータ) (2022-03-02T17:10:49Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Learning Parallel Dense Correspondence from Spatio-Temporal Descriptors
for Efficient and Robust 4D Reconstruction [43.60322886598972]
本稿では,点雲列からの4次元形状再構成の課題に焦点をあてる。
本稿では,クロスフレーム占有領域間の連続的変換関数を捉えることにより,人間の3次元形状の時間変化を学ぶための新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-30T13:36:03Z) - Deep learning with 4D spatio-temporal data representations for OCT-based
force estimation [59.405210617831656]
深層学習に基づく力推定の問題を,3D OCTボリュームのストリームを用いた4次元体積時間データに拡張する。
平均絶対誤差は10.7mNで, 4Dterm-temporalデータを用いた場合, 従来使用されていたデータ表現よりも優れていた。
論文 参考訳(メタデータ) (2020-05-20T13:30:36Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。