論文の概要: 2D+3D Facial Expression Recognition via Discriminative Dynamic Range
Enhancement and Multi-Scale Learning
- arxiv url: http://arxiv.org/abs/2011.08333v1
- Date: Mon, 16 Nov 2020 23:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 00:43:09.625583
- Title: 2D+3D Facial Expression Recognition via Discriminative Dynamic Range
Enhancement and Multi-Scale Learning
- Title(参考訳): 識別的ダイナミックレンジ強調とマルチスケール学習による2d+3d表情認識
- Authors: Yang Jiao, Yi Niu, Trac D. Tran, Guangming Shi
- Abstract要約: 2D+3D顔表情認識(FER)において、既存の手法は深度特徴表現を強化するために多視点幾何マップを生成する。
本稿では,情報理論の観点から新たなマップ生成手法を提案する。
実験結果から,提案手法はferの精度と出力エントロピーの両方において,最先端の2D+3D FER法より優れていることが示された。
- 参考スコア(独自算出の注目度): 44.836325191315844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 2D+3D facial expression recognition (FER), existing methods generate
multi-view geometry maps to enhance the depth feature representation. However,
this may introduce false estimations due to local plane fitting from incomplete
point clouds. In this paper, we propose a novel Map Generation technique from
the viewpoint of information theory, to boost the slight 3D expression
differences from strong personality variations. First, we examine the HDR depth
data to extract the discriminative dynamic range $r_{dis}$, and maximize the
entropy of $r_{dis}$ to a global optimum. Then, to prevent the large
deformation caused by over-enhancement, we introduce a depth distortion
constraint and reduce the complexity from $O(KN^2)$ to $O(KN\tau)$.
Furthermore, the constrained optimization is modeled as a $K$-edges maximum
weight path problem in a directed acyclic graph, and we solve it efficiently
via dynamic programming. Finally, we also design an efficient Facial Attention
structure to automatically locate subtle discriminative facial parts for
multi-scale learning, and train it with a proposed loss function
$\mathcal{L}_{FA}$ without any facial landmarks. Experimental results on
different datasets show that the proposed method is effective and outperforms
the state-of-the-art 2D+3D FER methods in both FER accuracy and the output
entropy of the generated maps.
- Abstract(参考訳): 2D+3D顔表情認識(FER)において、既存の手法は深度特徴表現を強化するために多視点幾何マップを生成する。
しかし、これは不完全点雲からの局所面の嵌合による誤推定をもたらす可能性がある。
本稿では,情報理論の観点からの新たな地図生成手法を提案する。
まず、HDR深度データを調べ、識別的ダイナミックレンジ$r_{dis}$を抽出し、r_{dis}$のエントロピーを大域的最適に最大化する。
次に,過エンハンスメントによる大きな変形を防止するため,深さ歪み制約を導入し,複雑さを$O(KN^2)$から$O(KN\tau)$に低減する。
さらに、制約付き最適化は有向非巡回グラフにおいて、k$-edges 最大重みパス問題としてモデル化され、動的計画法によって効率的に解く。
最後に,多段階学習のための微妙な識別的顔部品を自動的に検出する効率的な顔注意構造を設計し,顔のランドマークのない損失関数$\mathcal{L}_{FA}$で訓練する。
実験結果から,提案手法はferの精度と出力エントロピーの両方において,最先端の2D+3D FER法より優れていることが示された。
関連論文リスト
- Factorized Implicit Global Convolution for Automotive Computational Fluid Dynamics Prediction [52.32698071488864]
非常に大きな3DメッシュのCFD問題を効率的に解く新しいアーキテクチャであるFactized Implicit Global Convolution (FIGConv)を提案する。
FIGConvは、既存の3DニューラルCFDモデルよりも大幅に改善された2次複雑性の$O(N2)$を達成する。
業界標準のAhmedボディデータセットと大規模DrivAerNetデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-06T18:57:57Z) - Diff-DOPE: Differentiable Deep Object Pose Estimation [29.703385848843414]
Diff-DOPE, 画像入力を行う6-DoFポーズ精細機, オブジェクトの3次元テクスチャモデル, オブジェクトの初期ポーズを紹介する。
この方法は、画像とモデルの投影の間の視覚的エラーを最小限に抑えるために、オブジェクトのポーズを更新するために微分可能なレンダリングを使用する。
このシンプルで効果的なアイデアは、ポーズ推定データセットで最先端の結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-09-30T18:52:57Z) - RAFaRe: Learning Robust and Accurate Non-parametric 3D Face
Reconstruction from Pseudo 2D&3D Pairs [13.11105614044699]
単視3次元顔再構成(SVFR)のための頑健で正確な非パラメトリック手法を提案する。
大規模な擬似2D&3Dデータセットは、まず詳細な3D顔をレンダリングし、野生の画像の顔と描画された顔とを交換することによって作成される。
本モデルは,FaceScape-wild/labおよびMICCベンチマークにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-10T19:40:26Z) - IKOL: Inverse kinematics optimization layer for 3D human pose and shape
estimation via Gauss-Newton differentiation [44.00115413716392]
本稿では3次元ポーズ形状推定のための逆運動層(IKOL)を提案する。
IKOLは、既存の回帰ベースのメソッドよりもはるかに多い。
より正確な3Dポーズ推定を提供する。
論文 参考訳(メタデータ) (2023-02-02T12:43:29Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Deep and Shallow Covariance Feature Quantization for 3D Facial
Expression Recognition [7.773399781313892]
顔認識のためのマルチモーダル2D+3D特徴に基づく手法を提案する。
3次元画像から浅い特徴と,変換された2次元画像から畳み込みニューラルネットワーク(cnn)を用いた深い特徴を抽出する。
BU-3DFEおよびBosphorusデータセットで高い分類性能を達成しました。
論文 参考訳(メタデータ) (2021-05-12T14:48:39Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Depth Completion using Piecewise Planar Model [94.0808155168311]
深度マップは一連の学習された基底で表現することができ、閉じた解法で効率的に解ける。
しかし、この方法の1つの問題は、色境界が深さ境界と矛盾する場合にアーチファクトを生成することである。
私たちは、より厳密な深度回復モデルを実行します。
論文 参考訳(メタデータ) (2020-12-06T07:11:46Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。