論文の概要: A Kendall Shape Space Approach to 3D Shape Estimation from 2D Landmarks
- arxiv url: http://arxiv.org/abs/2207.12687v1
- Date: Tue, 26 Jul 2022 07:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:29:02.596283
- Title: A Kendall Shape Space Approach to 3D Shape Estimation from 2D Landmarks
- Title(参考訳): ケンドール形状空間による2次元ランドマークからの3次元形状推定
- Authors: Martha Paskin and Daniel Baum and Mason N. Dean and Christoph von
Tycowicz
- Abstract要約: 単分子2次元画像から3次元形状を再構成するための,Kendallの形状空間に基づく新しい手法を提案する。
この研究は、サメの摂食行動を研究するための応用によって動機付けられている。
- 参考スコア(独自算出の注目度): 0.5161531917413708
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: 3D shapes provide substantially more information than 2D images. However, the
acquisition of 3D shapes is sometimes very difficult or even impossible in
comparison with acquiring 2D images, making it necessary to derive the 3D shape
from 2D images. Although this is, in general, a mathematically ill-posed
problem, it might be solved by constraining the problem formulation using prior
information. Here, we present a new approach based on Kendall's shape space to
reconstruct 3D shapes from single monocular 2D images. The work is motivated by
an application to study the feeding behavior of the basking shark, an
endangered species whose massive size and mobility render 3D shape data nearly
impossible to obtain, hampering understanding of their feeding behaviors and
ecology. 2D images of these animals in feeding position, however, are readily
available. We compare our approach with state-of-the-art shape-based
approaches, both on human stick models and on shark head skeletons. Using a
small set of training shapes, we show that the Kendall shape space approach is
substantially more robust than previous methods and results in plausible
shapes. This is essential for the motivating application in which specimens are
rare and therefore only few training shapes are available.
- Abstract(参考訳): 3d形状は2d画像よりもかなり多くの情報を提供する。
しかし, 3次元形状の獲得は, 2次元画像の取得に比べて非常に困難あるいは不可能であり, 2次元画像から3次元形状を導出する必要がある。
これは一般に数学的に不適切な問題であるが、事前情報を用いて問題定式化を制約することで解決することができる。
本稿では,kendallの形状空間に基づく1枚の単眼2次元画像から3次元形状を再構成する新しいアプローチを提案する。
この研究は、大きなサイズと機動性によって3d形状のデータを得ることがほとんど不可能である絶滅危惧種baking sharkの摂食行動を研究するアプリケーションによって動機付けられたもので、摂食行動や生態の理解を妨げている。
しかし、これらの動物の摂食位置の2d画像は容易に入手できる。
このアプローチを,ヒトのスティックモデルとサメの頭部骨格の両方で,最先端の形状ベースアプローチと比較した。
トレーニング形状の小さなセットを用いて, ケンドール形状空間アプローチは, 従来手法よりもかなり頑健であり, 妥当な形状になることを示す。
これは、標本が希少であり、訓練形状がわずかであるモチベーション応用に必須である。
関連論文リスト
- AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - HoloDiffusion: Training a 3D Diffusion Model using 2D Images [71.1144397510333]
我々は,2次元画像のみを監督のために配置した,エンドツーエンドでトレーニング可能な新しい拡散装置を導入する。
我々の拡散モデルはスケーラブルで、頑健に訓練されており、既存の3次元生成モデルへのアプローチに対して、サンプルの品質と忠実さの点で競争力があることを示す。
論文 参考訳(メタデータ) (2023-03-29T07:35:56Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。