論文の概要: Subject Identification Across Large Expression Variations Using 3D
Facial Landmarks
- arxiv url: http://arxiv.org/abs/2005.08339v1
- Date: Sun, 17 May 2020 18:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:44:04.975623
- Title: Subject Identification Across Large Expression Variations Using 3D
Facial Landmarks
- Title(参考訳): 顔の3次元ランドマークを用いた大規模表情変化の主観的同定
- Authors: Sk Rahatul Jannat, Diego Fabiano, Shaun Canavan, and Tempestt Neal
- Abstract要約: 被験者識別作業に3次元顔のランドマークを用いることを提案する。
被験者識別のための支援ベクトルマシン(SVM)、ランダムフォレスト(RF)、Long Short-term Memory(LSTM)ニューラルネットワークを訓練する。
提案手法は, BU-4DFE およびBP4D において, 被験者識別のための技術手法の現況よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.123458396295289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Landmark localization is an important first step towards geometric based
vision research including subject identification. Considering this, we propose
to use 3D facial landmarks for the task of subject identification, over a range
of expressed emotion. Landmarks are detected, using a Temporal Deformable Shape
Model and used to train a Support Vector Machine (SVM), Random Forest (RF), and
Long Short-term Memory (LSTM) neural network for subject identification. As we
are interested in subject identification with large variations in expression,
we conducted experiments on 3 emotion-based databases, namely the BU-4DFE,
BP4D, and BP4D+ 3D/4D face databases. We show that our proposed method
outperforms current state of the art methods for subject identification on
BU-4DFE and BP4D. To the best of our knowledge, this is the first work to
investigate subject identification on the BP4D+, resulting in a baseline for
the community.
- Abstract(参考訳): ランドマークのローカライゼーションは、主観的識別を含む幾何学的視覚研究に向けた重要な第一歩である。
これを踏まえて,感情の表現範囲を越えて,被験者識別作業に3次元顔のランドマークを用いることを提案する。
ランドマークは、時間変形可能な形状モデルを用いて検出され、被験者識別のためのサポートベクトルマシン(SVM)、ランダムフォレスト(RF)、ロング短期記憶(LSTM)ニューラルネットワークのトレーニングに使用される。
表現のバリエーションが大きい被験者識別に関心があるため, BU-4DFE, BP4D, BP4D+ 3D/4D顔データベースという3つの感情ベースデータベースの実験を行った。
提案手法は, BU-4DFE およびBP4D の被検体識別方法の現況よりも優れていることを示す。
我々の知る限りでは、BP4D+の被検体識別を調査するのはこれが初めてであり、その結果、コミュニティのベースラインとなる。
関連論文リスト
- ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - Back to 3D: Few-Shot 3D Keypoint Detection with Back-Projected 2D Features [64.39691149255717]
3次元形状のキーポイント検出には意味的および幾何学的認識が必要である。
我々はキーポイント候補最適化モジュールを用いて,その形状上のキーポイントの平均分布を一致させる。
結果として得られたアプローチは、KeyPointNetデータセットで数ショットのキーポイント検出のための新しい状態を実現する。
論文 参考訳(メタデータ) (2023-11-29T21:58:41Z) - Unsupervised 3D Keypoint Discovery with Multi-View Geometry [104.76006413355485]
本研究では,多視点画像から人体上の3Dキーポイントを,監督やラベルなしで発見するアルゴリズムを提案する。
我々の手法は、他の最先端の教師なしアプローチと比較して、より解釈可能で正確な3Dキーポイントを発見する。
論文 参考訳(メタデータ) (2022-11-23T10:25:12Z) - The Florence 4D Facial Expression Dataset [0.0]
本研究では,3次元顔モデルの動的配列からなる大規模データセットであるFlorence 4Dを提案する。
合成と実の同一性の組み合わせは、前代未聞の4D表情を示す。
このようなデータコーパスをコミュニティに公開することで、新しいアプリケーションの設計と実験が可能になると強く信じています。
論文 参考訳(メタデータ) (2022-10-30T10:45:21Z) - LoRD: Local 4D Implicit Representation for High-Fidelity Dynamic Human
Modeling [69.56581851211841]
そこで我々は,LoRDという,動的に衣を着る人間の局所的な4D暗黙表現を提案する。
私たちの重要な洞察は、ネットワークがローカルな部分レベルの表現の潜在コードを学ぶように促すことです。
LoRDは、4D人間を表現する能力が強く、実用上の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-18T03:49:44Z) - Magnifying Subtle Facial Motions for Effective 4D Expression Recognition [56.806738404887824]
3D面の流れをまず解析し、空間的な変形を捉えます。
これらの変形の得られた時間的進化は、拡大法に供給される。
本論文の主な貢献である後者では、感情分類性能を高める微妙な(隠れた)変形を明らかにすることができる。
論文 参考訳(メタデータ) (2021-05-05T20:47:43Z) - Automated 3D cephalometric landmark identification using computerized
tomography [1.4349468613117398]
頭蓋骨の形状を代用する3次元頭蓋骨計測のランドマークの同定は、頭蓋骨計測の基本的なステップである。
近年,ディープラーニング(dl)を用いた2次元頭部画像の自動ランドマーク作成が大きな成功を収めているが,80以上のランドマークに対する3次元ランドマークは,まだ満足のいくレベルには達していない。
本論文では,匿名化されたランドマークデータセットと対のCTデータを取り除いた,半教師付き3次元ランドマーク用DL法を提案する。
論文 参考訳(メタデータ) (2020-12-16T07:29:32Z) - Facial Action Unit Detection using 3D Facial Landmarks [0.4873362301533825]
形状指数に基づく統計的形状モデルを用いて3次元顔のランドマーク上に2次元畳み込みニューラルネットワーク(CNN)を訓練する。
提案手法は,顔のランドマークの動きがAUの動きと直接対応するため,AUの発生を正確にモデル化できることを示す。
提案手法を用いて,330,000フレーム以上のAUを複数検出し,最先端手法による改善結果を報告する。
論文 参考訳(メタデータ) (2020-05-17T19:02:10Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。