論文の概要: Deep-MDS Framework for Recovering the 3D Shape of 2D Landmarks from a
Single Image
- arxiv url: http://arxiv.org/abs/2210.15200v1
- Date: Thu, 27 Oct 2022 06:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:24:24.126813
- Title: Deep-MDS Framework for Recovering the 3D Shape of 2D Landmarks from a
Single Image
- Title(参考訳): 1枚の画像から2次元ランドマークの3次元形状を復元するディープMDSフレームワーク
- Authors: Shima Kamyab, Zohreh Azimifar
- Abstract要約: 本稿では,人間の顔上の2次元ランドマークの3次元形状を,単一の入力画像で再現する枠組みを提案する。
ディープニューラルネットワークは、NMDSアプローチで使用される2Dランドマーク間のペアの相似性を学習する。
- 参考スコア(独自算出の注目度): 8.368476827165114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a low parameter deep learning framework utilizing the
Non-metric Multi-Dimensional scaling (NMDS) method, is proposed to recover the
3D shape of 2D landmarks on a human face, in a single input image. Hence, NMDS
approach is used for the first time to establish a mapping from a 2D landmark
space to the corresponding 3D shape space. A deep neural network learns the
pairwise dissimilarity among 2D landmarks, used by NMDS approach, whose
objective is to learn the pairwise 3D Euclidean distance of the corresponding
2D landmarks on the input image. This scheme results in a symmetric
dissimilarity matrix, with the rank larger than 2, leading the NMDS approach
toward appropriately recovering the 3D shape of corresponding 2D landmarks. In
the case of posed images and complex image formation processes like perspective
projection which causes occlusion in the input image, we consider an
autoencoder component in the proposed framework, as an occlusion removal part,
which turns different input views of the human face into a profile view. The
results of a performance evaluation using different synthetic and real-world
human face datasets, including Besel Face Model (BFM), CelebA, CoMA - FLAME,
and CASIA-3D, indicates the comparable performance of the proposed framework,
despite its small number of training parameters, with the related
state-of-the-art and powerful 3D reconstruction methods from the literature, in
terms of efficiency and accuracy.
- Abstract(参考訳): 本稿では,非メトリック多次元スケーリング(non-metric multi-dimensional scaling, nmds)法を用いた低パラメータ深層学習フレームワークを提案する。
したがって、nmdsアプローチは、2次元ランドマーク空間から対応する3次元形状空間へのマッピングを確立するために初めて用いられる。
深層ニューラルネットワークは、入力画像上で対応する2Dランドマークの2次元ユークリッド距離を学習することを目的として、NMDSアプローチで使用される2Dランドマーク間のペア方向の相似性を学習する。
このスキームは対称異方性行列となり、ランクが2より大きいため、NMDSアプローチは対応する2次元ランドマークの3次元形状を適切に復元する。
入力画像のオクルージョンを引き起こす視点投影のような複雑な画像形成過程やポーズ画像の場合、提案手法におけるオートエンコーダ成分を、人間の顔の異なる入力ビューをプロファイルビューに変換するオクルージョン除去部として考慮する。
Besel Face Model (BFM)、CelebA、CoMA - FLAME、CASIA-3Dなど、さまざまな人工顔と実世界の顔のデータセットを用いた性能評価の結果は、少数のトレーニングパラメータにもかかわらず、その効率と正確性の観点から、関連する最先端の3D再構成手法を用いて、提案フレームワークの同等の性能を示している。
関連論文リスト
- JOTR: 3D Joint Contrastive Learning with Transformers for Occluded Human
Mesh Recovery [84.67823511418334]
本稿では,3次元メッシュ復元のためのTRansformersフレームワークを用いた3次元ジョイントコントラスト学習について述べる。
提案手法は,2D$&$3D対応結果を得るために,2Dおよび3D表現を融合するエンコーダ・デコーダ変換器アーキテクチャを含む。
論文 参考訳(メタデータ) (2023-07-31T02:58:58Z) - Joint-MAE: 2D-3D Joint Masked Autoencoders for 3D Point Cloud
Pre-training [65.75399500494343]
Masked Autoencoders (MAE) は、2Dおよび3Dコンピュータビジョンのための自己教師型学習において有望な性能を示した。
自己監督型3次元点雲事前学習のための2D-3DジョイントMAEフレームワークであるJoint-MAEを提案する。
論文 参考訳(メタデータ) (2023-02-27T17:56:18Z) - RAFaRe: Learning Robust and Accurate Non-parametric 3D Face
Reconstruction from Pseudo 2D&3D Pairs [13.11105614044699]
単視3次元顔再構成(SVFR)のための頑健で正確な非パラメトリック手法を提案する。
大規模な擬似2D&3Dデータセットは、まず詳細な3D顔をレンダリングし、野生の画像の顔と描画された顔とを交換することによって作成される。
本モデルは,FaceScape-wild/labおよびMICCベンチマークにおいて,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-10T19:40:26Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - RiCS: A 2D Self-Occlusion Map for Harmonizing Volumetric Objects [68.85305626324694]
カメラ空間における光マーチング (RiCS) は、3次元における前景物体の自己閉塞を2次元の自己閉塞マップに表現する新しい手法である。
表現マップは画像の質を高めるだけでなく,時間的コヒーレントな複雑な影効果をモデル化できることを示す。
論文 参考訳(メタデータ) (2022-05-14T05:35:35Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Implicit Neural Deformation for Multi-View Face Reconstruction [43.88676778013593]
マルチビューRGB画像から新しい3次元顔再構成法を提案する。
従来の3次元形態素モデルに基づく手法とは異なり,本手法は暗黙の表現を利用してリッチな幾何学的特徴を符号化する。
いくつかのベンチマークデータセットに対する実験結果から,提案手法は代替ベースラインよりも優れ,最先端の手法に比べて優れた顔再構成結果が得られることが示された。
論文 参考訳(メタデータ) (2021-12-05T07:02:53Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Adaptive 3D Face Reconstruction from a Single Image [45.736818498242016]
1枚の画像から3次元の顔形状を適応的に再構成する新しい関節2Dと3Dの最適化法を提案する。
複数のデータセットに対する実験結果から,本手法は1枚のカラー画像から高品質な再構成を実現できることが示された。
論文 参考訳(メタデータ) (2020-07-08T09:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。