論文の概要: A Dynamic 3D Spontaneous Micro-expression Database: Establishment and
Evaluation
- arxiv url: http://arxiv.org/abs/2108.00166v1
- Date: Sat, 31 Jul 2021 07:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:21:39.450666
- Title: A Dynamic 3D Spontaneous Micro-expression Database: Establishment and
Evaluation
- Title(参考訳): 動的3次元自発的マイクロ表現データベースの構築と評価
- Authors: Fengping Wang, Jie Li, Chun Qi, Yun Zhang, Danmin Miao
- Abstract要約: マイクロ表現は、人々の真の内的感情を示す、自発的で無意識の顔の動きである。
表情の発生は、顔の空間的変形を引き起こす。
本稿では,2次元ビデオシーケンスと3次元点雲シーケンスを含む新しいマイクロ圧縮データベースを提案する。
- 参考スコア(独自算出の注目度): 14.994232615123337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions are spontaneous, unconscious facial movements that show
people's true inner emotions and have great potential in related fields of
psychological testing. Since the face is a 3D deformation object, the
occurrence of an expression can arouse spatial deformation of the face, but
limited by the available databases are 2D videos, which lack the description of
3D spatial information of micro-expressions. Therefore, we proposed a new
micro-expression database containing 2D video sequences and 3D point clouds
sequences. The database includes 259 micro-expressions sequences, and these
samples were classified using the objective method based on facial action
coding system, as well as the non-objective method that combines video contents
and participants' self-reports. We extracted facial 2D and 3D features using
local binary patterns on three orthogonal planes and curvature descriptors,
respectively, and performed baseline evaluations of the two features and their
fusion results with leave-one-subject-out(LOSO) and 10-fold cross-validation
methods. The best fusion performances were 58.84% and 73.03% for non-objective
classification and 66.36% and 77.42% for objective classification, both of
which have improved performance compared to using LBP-TOP features only.The
database offers original and cropped micro-expression samples, which will
facilitate the exploration and research on 3D Spatio-temporal features of
micro-expressions.
- Abstract(参考訳): マイクロ表現は自発的で無意識な顔の動きであり、人々の真の内的感情を示し、関連する心理テストの分野で大きな可能性を秘めている。
顔は3d変形対象であるため、表情の発生は顔の空間的変形を喚起するが、利用可能なデータベースで制限されるのは2dビデオであり、マイクロ表現の3d空間情報の記述が欠如している。
そこで,我々は2次元映像列と3次元点雲列を含む新しいマイクロ表現データベースを提案する。
データベースには229のマイクロ表現シーケンスが含まれており、これらのサンプルは、映像コンテンツと参加者の自己報告を組み合わせた非客観的手法と同様に、顔行動符号化システムに基づく客観的手法を用いて分類された。
3つの直交平面と曲率ディスクリプタの局所的二乗パターンを用いて顔2Dおよび3Dの特徴を抽出し,両特徴のベースライン評価を行い,その融合結果をLeft-one-subject-out(LOSO)法と10倍のクロスバリデーション法で行った。
最も優れた核融合性能は、非目的分類では58.84%と73.03%、客観的分類では66.36%と77.42%であり、いずれもlpp-top機能のみを使用した場合に比べて性能が向上した。
関連論文リスト
- 2D or not 2D: How Does the Dimensionality of Gesture Representation Affect 3D Co-Speech Gesture Generation? [5.408549711581793]
本研究では,2次元もしくは3次元の関節座標を訓練データとして用いることが,音声から身近な深層生成モデルの性能に及ぼす影響について検討した。
生成した2Dポーズシーケンスを3Dに変換するためのリフトモデルを用いて,2Dで生成したジェスチャと3Dで生成したジェスチャを直接3Dスタックで生成し,次に3Dに変換する方法を評価する。
論文 参考訳(メタデータ) (2024-09-16T15:06:12Z) - Ig3D: Integrating 3D Face Representations in Facial Expression Inference [12.975434103690812]
本研究の目的は,表情推論タスクに3次元表現を統合することの影響を検討することである。
まず、FEIタスクにおける2つの3次元顔表現(どちらも3次元形態素モデル、FLAMEに基づく)の性能を評価する。
次に、既存の2D推論フレームワークと3D顔表現を統合するために、中間融合と後期融合という2つの融合アーキテクチャについて検討する。
提案手法は,最先端のAffectNet VA推定とRAF-DB分類タスクより優れている。
論文 参考訳(メタデータ) (2024-08-29T21:08:07Z) - Memorize What Matters: Emergent Scene Decomposition from Multitraverse [54.487589469432706]
3次元ガウス写像は3次元ガウス写像をベースとしたカメラのみのオフラインマッピングフレームワークである。
3DGMは、同じ領域から複数のRGBビデオをガウスベースの環境マップに変換し、同時に2D短命なオブジェクトセグメンテーションを実行する。
We build the Mapverse benchmark, sourced from the Ithaca365 and nuPlan datasets, to evaluate our method in unsupervised 2D segmentation, 3D reconstruction, and Neural rendering。
論文 参考訳(メタデータ) (2024-05-27T14:11:17Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Multi-scale multi-modal micro-expression recognition algorithm based on
transformer [17.980579727286518]
マイクロ・エクスプレッション(micro-expression)は、人々が隠そうとする真の感情を明らかにする、自然に無意識の顔面筋運動である。
マイクロ表現の局所的多粒度特徴を学習するためのトランスフォーマーネットワークに基づくマルチモーダルマルチスケールアルゴリズムを提案する。
その結果、単一測定SMICデータベースにおける提案アルゴリズムの精度は78.73%、組合せデータベースのCASMEII上のF1値は最大0.9071であることがわかった。
論文 参考訳(メタデータ) (2023-01-08T03:45:23Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - MMNet: Muscle motion-guided network for micro-expression recognition [2.032432845751978]
筋運動誘導ネットワーク(MMNet)という,ロバストなマイクロ圧縮認識フレームワークを提案する。
具体的には,局所的な微妙な筋運動パターンを識別情報が少なくモデル化することに焦点を当てた連続的注意ブロック(CA)を導入する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-01-14T04:05:49Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - MERANet: Facial Micro-Expression Recognition using 3D Residual Attention
Network [14.285700243381537]
本研究では,MERANet を用いた顔認識モデルを提案する。
提案モデルは空間情報と時間情報の両方を包含する。
顔のマイクロ表現認識のための最先端技術と比較して優れた性能が観察される。
論文 参考訳(メタデータ) (2020-12-07T16:41:42Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。