論文の概要: Robust 3D Self-portraits in Seconds
- arxiv url: http://arxiv.org/abs/2004.02460v1
- Date: Mon, 6 Apr 2020 08:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:21:12.708300
- Title: Robust 3D Self-portraits in Seconds
- Title(参考訳): ロバストな3D自画像
- Authors: Zhe Li, Tao Yu, Chuanyu Pan, Zerong Zheng, Yebin Liu
- Abstract要約: 単一のRGBDカメラを用いた3次元自撮り画像の高能率化手法を提案する。
提案手法は,最先端の手法と比較して,より堅牢で効率的な3次元自画像を実現する。
- 参考スコア(独自算出の注目度): 37.943161014260674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an efficient method for robust 3D self-portraits
using a single RGBD camera. Benefiting from the proposed PIFusion and
lightweight bundle adjustment algorithm, our method can generate detailed 3D
self-portraits in seconds and shows the ability to handle subjects wearing
extremely loose clothes. To achieve highly efficient and robust reconstruction,
we propose PIFusion, which combines learning-based 3D recovery with volumetric
non-rigid fusion to generate accurate sparse partial scans of the subject.
Moreover, a non-rigid volumetric deformation method is proposed to continuously
refine the learned shape prior. Finally, a lightweight bundle adjustment
algorithm is proposed to guarantee that all the partial scans can not only
"loop" with each other but also remain consistent with the selected live key
observations. The results and experiments show that the proposed method
achieves more robust and efficient 3D self-portraits compared with
state-of-the-art methods.
- Abstract(参考訳): 本稿では,単一のrgbdカメラを用いたロバストな3次元自己撮影手法を提案する。
提案手法は,PIFusionと軽量バンドル調整アルゴリズムを応用して,詳細な3次元自画像を数秒で生成し,極めてゆるい服を着ている被写体を扱えることを示す。
高効率で頑健な再構築を実現するために,学習に基づく3次元回復と容積的非剛性融合を組み合わせたPIFusionを提案する。
さらに,非剛性体積変形法を提案し,学習した形状を連続的に改良する。
最後に、全ての部分スキャンが相互に"ループ"できるだけでなく、選択したライブキー観測と整合性を保つために、軽量なバンドル調整アルゴリズムが提案されている。
その結果,提案手法は最先端手法と比較して,より堅牢で効率的な3次元自己画像化を実現することがわかった。
関連論文リスト
- PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - DIG3D: Marrying Gaussian Splatting with Deformable Transformer for Single Image 3D Reconstruction [12.408610403423559]
本稿では,3次元オブジェクト再構成と新しいビュー合成のためのDIG3Dという新しい手法を提案する。
提案手法は,デコーダの3次元ガウスアンを生成するエンコーダ・デコーダ・フレームワークを用いて,エンコーダから奥行き認識画像の特徴を誘導する。
提案手法をShapeNet SRNデータセット上で評価し,車内および椅子内におけるPSNRは24.21と24.98であった。
論文 参考訳(メタデータ) (2024-04-25T04:18:59Z) - Deep Fusion Transformer Network with Weighted Vector-Wise Keypoints
Voting for Robust 6D Object Pose Estimation [34.37209136057662]
本稿では,ポーズ推定を改善するために,モーダリティ特性を集約できる新しいDeep Fusion Transformerを提案する。
また, 高精度な3次元キーポイントローカライゼーションのための非定位的グローバル最適化戦略を利用する, 新しい重み付きベクトルワイズ投票アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-10T08:52:08Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。