論文の概要: LiDAR-HMR: 3D Human Mesh Recovery from LiDAR
- arxiv url: http://arxiv.org/abs/2311.11971v1
- Date: Mon, 20 Nov 2023 17:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 17:39:15.533638
- Title: LiDAR-HMR: 3D Human Mesh Recovery from LiDAR
- Title(参考訳): LiDAR-HMR:LiDARからの3次元メッシュ復元
- Authors: Bohao Fan, Wenzhao Zheng, Jianjiang Feng, Jie Zhou
- Abstract要約: 本稿では,疎いLiDAR点雲から3次元人体メッシュを推定するための最初の試みについて述べる。
点雲から人のポーズやメッシュを推定する上での大きな課題は、LiDAR点雲の空間性、ノイズ、不完全性にあることがわかった。
本研究では,3次元メッシュの再構築に有効なスパース・トゥ・ディエンス・リコンストラクション手法を提案する。
- 参考スコア(独自算出の注目度): 45.45734982682499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, point cloud perception tasks have been garnering increasing
attention. This paper presents the first attempt to estimate 3D human body mesh
from sparse LiDAR point clouds. We found that the major challenge in estimating
human pose and mesh from point clouds lies in the sparsity, noise, and
incompletion of LiDAR point clouds. Facing these challenges, we propose an
effective sparse-to-dense reconstruction scheme to reconstruct 3D human mesh.
This involves estimating a sparse representation of a human (3D human pose) and
gradually reconstructing the body mesh. To better leverage the 3D structural
information of point clouds, we employ a cascaded graph transformer
(graphormer) to introduce point cloud features during sparse-to-dense
reconstruction. Experimental results on three publicly available databases
demonstrate the effectiveness of the proposed approach. Code:
https://github.com/soullessrobot/LiDAR-HMR/
- Abstract(参考訳): 近年,ポイントクラウド知覚タスクが注目を集めている。
本稿では,疎いLiDAR点雲から3次元人体メッシュを推定するための最初の試みを示す。
点雲から人のポーズやメッシュを推定する上での大きな課題は、LiDAR点雲の空間性、ノイズ、不完全性にあることがわかった。
これらの課題に対して,我々は3次元メッシュを再構築する効果的なスパース・ツー・ディエンス再構成手法を提案する。
これには、人間の3Dポーズのスパース表現を推定し、徐々に体メッシュを再構築することが含まれる。
ポイントクラウドの3次元構造情報を活用するため,我々はカスケードグラフトランスフォーマ(graphormer)を用いて,スパース・ツー・デンス復元時のポイントクラウド機能を導入する。
3つの公開データベースの実験結果から,提案手法の有効性が示された。
コード:https://github.com/soullessrobot/LiDAR-HMR/
関連論文リスト
- Few-shot point cloud reconstruction and denoising via learned Guassian splats renderings and fine-tuned diffusion features [52.62053703535824]
本稿では,少数の画像から点雲を再構成し,そのレンダリングから点雲を識別する手法を提案する。
制約条件下での再構成を改善するため,ハイブリッド表面と外観の相違点のトレーニングを規則化する。
これらの学習したフィルタを使って、3Dの監督なしに来る点雲ノイズを除去する方法を実証する。
論文 参考訳(メタデータ) (2024-04-01T13:38:16Z) - SiTH: Single-view Textured Human Reconstruction with Image-Conditioned Diffusion [35.73448283467723]
SiTHは、イメージ条件付き拡散モデルと3Dメッシュ再構築ワークフローを統合する、新しいパイプラインである。
我々は、入力画像に基づいて、見えないバックビューの外観を幻覚させるために、強力な生成拡散モデルを用いる。
後者では,入力画像とバックビュー画像から全身のテクスチャメッシュを復元するためのガイダンスとして,肌付きボディーメッシュを利用する。
論文 参考訳(メタデータ) (2023-11-27T14:22:07Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Points2NeRF: Generating Neural Radiance Fields from 3D point cloud [0.0]
ニューラルラジアンス場(NeRF)として3次元物体を表現することを提案する。
ハイパーネットワークのパラダイムを活用して、モデルをトレーニングして、関連するカラー値を持つ3Dポイントクラウドを取ります。
提案手法は効率的な3次元オブジェクト表現を提供し,既存手法に対するいくつかの利点を提供する。
論文 参考訳(メタデータ) (2022-06-02T20:23:33Z) - Deep unsupervised 3D human body reconstruction from a sparse set of
landmarks [40.679520739784195]
本稿では,DeepMurfと呼ばれる人体再建における非教師なしのアプローチを提案する。
4つの公開データセットの結果から,本手法は実世界のモキャップデータから人体を正確に再構築することを示した。
論文 参考訳(メタデータ) (2021-06-23T10:02:58Z) - Learning to Drop Points for LiDAR Scan Synthesis [5.132259673802809]
3Dシーンのジェネラティブモデリングは、モバイルロボットが信頼できない観察を改善するための重要なトピックです。
点雲に関する既存の研究のほとんどは、小さく均一な密度のデータに焦点を当てている。
移動ロボットで広く使われている3次元LiDAR点雲は、多数の点と様々な密度のために扱いにくい。
本論文では,リアルなLiDARデータを改良した2次元表現として合成する,ジェネレーティブ・アドバーサリ・ネットワークに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T21:53:14Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。