論文の概要: A Dynamic 3D Spontaneous Micro-expression Database: Establishment and
Evaluation
- arxiv url: http://arxiv.org/abs/2108.00166v1
- Date: Sat, 31 Jul 2021 07:04:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:21:39.450666
- Title: A Dynamic 3D Spontaneous Micro-expression Database: Establishment and
Evaluation
- Title(参考訳): 動的3次元自発的マイクロ表現データベースの構築と評価
- Authors: Fengping Wang, Jie Li, Chun Qi, Yun Zhang, Danmin Miao
- Abstract要約: マイクロ表現は、人々の真の内的感情を示す、自発的で無意識の顔の動きである。
表情の発生は、顔の空間的変形を引き起こす。
本稿では,2次元ビデオシーケンスと3次元点雲シーケンスを含む新しいマイクロ圧縮データベースを提案する。
- 参考スコア(独自算出の注目度): 14.994232615123337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Micro-expressions are spontaneous, unconscious facial movements that show
people's true inner emotions and have great potential in related fields of
psychological testing. Since the face is a 3D deformation object, the
occurrence of an expression can arouse spatial deformation of the face, but
limited by the available databases are 2D videos, which lack the description of
3D spatial information of micro-expressions. Therefore, we proposed a new
micro-expression database containing 2D video sequences and 3D point clouds
sequences. The database includes 259 micro-expressions sequences, and these
samples were classified using the objective method based on facial action
coding system, as well as the non-objective method that combines video contents
and participants' self-reports. We extracted facial 2D and 3D features using
local binary patterns on three orthogonal planes and curvature descriptors,
respectively, and performed baseline evaluations of the two features and their
fusion results with leave-one-subject-out(LOSO) and 10-fold cross-validation
methods. The best fusion performances were 58.84% and 73.03% for non-objective
classification and 66.36% and 77.42% for objective classification, both of
which have improved performance compared to using LBP-TOP features only.The
database offers original and cropped micro-expression samples, which will
facilitate the exploration and research on 3D Spatio-temporal features of
micro-expressions.
- Abstract(参考訳): マイクロ表現は自発的で無意識な顔の動きであり、人々の真の内的感情を示し、関連する心理テストの分野で大きな可能性を秘めている。
顔は3d変形対象であるため、表情の発生は顔の空間的変形を喚起するが、利用可能なデータベースで制限されるのは2dビデオであり、マイクロ表現の3d空間情報の記述が欠如している。
そこで,我々は2次元映像列と3次元点雲列を含む新しいマイクロ表現データベースを提案する。
データベースには229のマイクロ表現シーケンスが含まれており、これらのサンプルは、映像コンテンツと参加者の自己報告を組み合わせた非客観的手法と同様に、顔行動符号化システムに基づく客観的手法を用いて分類された。
3つの直交平面と曲率ディスクリプタの局所的二乗パターンを用いて顔2Dおよび3Dの特徴を抽出し,両特徴のベースライン評価を行い,その融合結果をLeft-one-subject-out(LOSO)法と10倍のクロスバリデーション法で行った。
最も優れた核融合性能は、非目的分類では58.84%と73.03%、客観的分類では66.36%と77.42%であり、いずれもlpp-top機能のみを使用した場合に比べて性能が向上した。
関連論文リスト
- Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Facial Prior Based First Order Motion Model for Micro-expression
Generation [11.27890186026442]
本稿では,マイクロ圧縮生成と呼ばれる新しいタスクの定式化を試みる。
ファーストオーダーのモーションモデルと顔の事前知識を組み合わせる。
対象の顔が与えられた場合、原動画の動きパターンに応じて、顔を動かしてマイクロ圧縮ビデオを生成する。
論文 参考訳(メタデータ) (2023-08-08T18:57:03Z) - Weakly Supervised 3D Open-vocabulary Segmentation [104.07740741126119]
学習済み基礎モデルCLIPとDINOを弱教師付きで活用することで,3次元オープン語彙セグメンテーションの課題に取り組む。
我々はCLIPとDINOのオープン語彙多様知識とオブジェクト推論能力をニューラルラディアンス場(NeRF)に蒸留する。
提案手法の特筆すべき点は,基礎モデルや蒸留プロセスに手動セグメンテーションアノテーションを必要としない点である。
論文 参考訳(メタデータ) (2023-05-23T14:16:49Z) - Multi-scale multi-modal micro-expression recognition algorithm based on
transformer [17.980579727286518]
マイクロ・エクスプレッション(micro-expression)は、人々が隠そうとする真の感情を明らかにする、自然に無意識の顔面筋運動である。
マイクロ表現の局所的多粒度特徴を学習するためのトランスフォーマーネットワークに基づくマルチモーダルマルチスケールアルゴリズムを提案する。
その結果、単一測定SMICデータベースにおける提案アルゴリズムの精度は78.73%、組合せデータベースのCASMEII上のF1値は最大0.9071であることがわかった。
論文 参考訳(メタデータ) (2023-01-08T03:45:23Z) - Consistency of Implicit and Explicit Features Matters for Monocular 3D
Object Detection [4.189643331553922]
モノクロ3D物体検出は、低コストの自律エージェントが周囲を知覚する一般的な解決策である。
本報告では,3次元表現における暗黙的特徴と明示的特徴の相違を解消するために,第1の配向認識画像バックボーンを用いたCIEFを提案する。
CIEFは、提出時にKITTIの3DおよびBEV検出ベンチマークで報告されたすべての手法の中で、第1位にランクされた。
論文 参考訳(メタデータ) (2022-07-16T13:00:32Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - MMNet: Muscle motion-guided network for micro-expression recognition [2.032432845751978]
筋運動誘導ネットワーク(MMNet)という,ロバストなマイクロ圧縮認識フレームワークを提案する。
具体的には,局所的な微妙な筋運動パターンを識別情報が少なくモデル化することに焦点を当てた連続的注意ブロック(CA)を導入する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-01-14T04:05:49Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - MERANet: Facial Micro-Expression Recognition using 3D Residual Attention
Network [14.285700243381537]
本研究では,MERANet を用いた顔認識モデルを提案する。
提案モデルは空間情報と時間情報の両方を包含する。
顔のマイクロ表現認識のための最先端技術と比較して優れた性能が観察される。
論文 参考訳(メタデータ) (2020-12-07T16:41:42Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。