論文の概要: The Florence 4D Facial Expression Dataset
- arxiv url: http://arxiv.org/abs/2210.16807v1
- Date: Sun, 30 Oct 2022 10:45:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:34:46.783905
- Title: The Florence 4D Facial Expression Dataset
- Title(参考訳): フローレンス4次元顔表情データセット
- Authors: F. Principi, S. Berretti, C. Ferrari, N. Otberdout, M. Daoudi, A. Del
Bimbo
- Abstract要約: 本研究では,3次元顔モデルの動的配列からなる大規模データセットであるFlorence 4Dを提案する。
合成と実の同一性の組み合わせは、前代未聞の4D表情を示す。
このようなデータコーパスをコミュニティに公開することで、新しいアプリケーションの設計と実験が可能になると強く信じています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human facial expressions change dynamically, so their recognition / analysis
should be conducted by accounting for the temporal evolution of face
deformations either in 2D or 3D. While abundant 2D video data do exist, this is
not the case in 3D, where few 3D dynamic (4D) datasets were released for public
use. The negative consequence of this scarcity of data is amplified by current
deep learning based-methods for facial expression analysis that require large
quantities of variegate samples to be effectively trained. With the aim of
smoothing such limitations, in this paper we propose a large dataset, named
Florence 4D, composed of dynamic sequences of 3D face models, where a
combination of synthetic and real identities exhibit an unprecedented variety
of 4D facial expressions, with variations that include the classical
neutral-apex transition, but generalize to expression-to-expression. All these
characteristics are not exposed by any of the existing 4D datasets and they
cannot even be obtained by combining more than one dataset. We strongly believe
that making such a data corpora publicly available to the community will allow
designing and experimenting new applications that were not possible to
investigate till now. To show at some extent the difficulty of our data in
terms of different identities and varying expressions, we also report a
baseline experimentation on the proposed dataset that can be used as baseline.
- Abstract(参考訳): ヒトの表情は動的に変化するため、2次元または3次元の顔の変形の時間的変化を考慮し、認識・分析を行う必要がある。
豊富な2dビデオデータが存在するが、これは3dではそうではない。
このデータの不足による負の結果は、大量のバラエゲートサンプルを効果的に訓練する必要のある表情分析のための現在のディープラーニングベースメソッドによって増幅される。
そこで本研究では,3次元顔モデルの動的配列からなる大規模データセットであるFlorence 4Dを提案する。合成と実のIDの組み合わせは,古典的中和遷移を含む,前例のない4次元表情の多様性を示すが,表現から表現への一般化が可能である。
これらの特徴はすべて既存の4dデータセットでは公開されておらず、複数のデータセットを組み合わせるだけでは取得できない。
このようなデータコーパスをコミュニティに公開することで、これまで調査できなかった新しいアプリケーションの設計と実験が可能になると強く信じています。
異なる同一性や様々な表現の観点からデータの難易度をある程度示すために,提案したデータセットをベースラインとして使用可能なベースライン実験を報告した。
関連論文リスト
- AnimateMe: 4D Facial Expressions via Diffusion Models [72.63383191654357]
拡散モデルの最近の進歩により、2次元アニメーションにおける生成モデルの能力が向上した。
グラフニューラルネットワーク(GNN)は,メッシュ空間上で直接拡散過程を定式化し,新しい手法で拡散モデルを記述する。
これにより、メッシュ拡散モデルによる顔の変形の発生が容易になる。
論文 参考訳(メタデータ) (2024-03-25T21:40:44Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - RAFaRe: Learning Robust and Accurate Non-parametric 3D Face
Reconstruction from Pseudo 2D&3D Pairs [13.11105614044699]
単視3次元顔再構成(SVFR)のための頑健で正確な非パラメトリック手法を提案する。
大規模な擬似2D&3Dデータセットは、まず詳細な3D顔をレンダリングし、野生の画像の顔と描画された顔とを交換することによって作成される。
本モデルは,FaceScape-wild/labおよびMICCベンチマークにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-10T19:40:26Z) - LoRD: Local 4D Implicit Representation for High-Fidelity Dynamic Human
Modeling [69.56581851211841]
そこで我々は,LoRDという,動的に衣を着る人間の局所的な4D暗黙表現を提案する。
私たちの重要な洞察は、ネットワークがローカルな部分レベルの表現の潜在コードを学ぶように促すことです。
LoRDは、4D人間を表現する能力が強く、実用上の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-18T03:49:44Z) - Generating Multiple 4D Expression Transitions by Learning Face Landmark
Trajectories [26.63401369410327]
現実の世界では、人々はより複雑な表現を示し、ある表現から別の表現に切り替える。
本稿では,異なる表現間の遷移を生成し,長さと合成された4次元表現を合成する新しいモデルを提案する。
論文 参考訳(メタデータ) (2022-07-29T19:33:56Z) - Identity-Expression Ambiguity in 3D Morphable Face Models [5.38250259923059]
同一性や表現の変化の非直交性は3次元形態素モデルにおいて自己表現の曖昧さを引き起こす可能性があることを示す。
我々はこの効果を3次元形状と逆レンダリングタスクで直接示す。
論文 参考訳(メタデータ) (2021-09-29T06:11:43Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Learning to Generate Customized Dynamic 3D Facial Expressions [47.5220752079009]
本研究では,4次元表情に着目した3次元画像から映像への翻訳について検討した。
我々は、現実的な高解像度の表情を合成するために、アーキテクチャのようなディープメッシュデコーダを用いる。
我々は180名の被験者から6つの表情の4Dスキャンによる高分解能データセットを用いてモデルを訓練した。
論文 参考訳(メタデータ) (2020-07-19T22:38:43Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。