論文の概要: Human as Points: Explicit Point-based 3D Human Reconstruction from Single-view RGB Images
- arxiv url: http://arxiv.org/abs/2311.02892v2
- Date: Sat, 18 Jan 2025 09:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:16:50.616996
- Title: Human as Points: Explicit Point-based 3D Human Reconstruction from Single-view RGB Images
- Title(参考訳): ポイントとしての人間: 単一視点RGB画像からの明示的ポイントベース3次元人体再構成
- Authors: Yingzhi Tang, Qijian Zhang, Junhui Hou, Yebin Liu,
- Abstract要約: 我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
- 参考スコア(独自算出の注目度): 71.91424164693422
- License:
- Abstract: The latest trends in the research field of single-view human reconstruction devote to learning deep implicit functions constrained by explicit body shape priors. Despite the remarkable performance improvements compared with traditional processing pipelines, existing learning approaches still show different aspects of limitations in terms of flexibility, generalizability, robustness, and/or representation capability. To comprehensively address the above issues, in this paper, we investigate an explicit point-based human reconstruction framework called HaP, which adopts point clouds as the intermediate representation of the target geometric structure. Technically, our approach is featured by fully-explicit point cloud estimation, manipulation, generation, and refinement in the 3D geometric space, instead of an implicit learning process that can be ambiguous and less controllable. The overall workflow is carefully organized with dedicated designs of the corresponding specialized learning components as well as processing procedures. Extensive experiments demonstrate that our framework achieves quantitative performance improvements of 20% to 40% over current state-of-the-art methods, and better qualitative results. Our promising results may indicate a paradigm rollback to the fully-explicit and geometry-centric algorithm design, which enables to exploit various powerful point cloud modeling architectures and processing techniques. We will make our code and data publicly available at https://github.com/yztang4/HaP.
- Abstract(参考訳): 単一視点の人体再構成の研究分野における最新のトレンドは、明示的な身体形状に制約された深い暗黙の関数を学習することに集中している。
従来の処理パイプラインと比較して顕著なパフォーマンス向上にもかかわらず、既存の学習アプローチは、柔軟性、一般化可能性、堅牢性、および/または表現能力の面で制限の異なる側面を示している。
上記の課題を包括的に解決するために,本稿では,対象幾何学構造の中間表現として点雲を用いる,HaPと呼ばれる明示的な点ベース人間再構成フレームワークについて検討する。
技術的には、我々のアプローチは、曖昧で制御しにくい暗黙の学習プロセスではなく、3次元幾何学空間における完全に明示的な点雲の推定、操作、生成、改善によって特徴付けられる。
全体的なワークフローは、処理手順と同様に、対応する専門的な学習コンポーネントの専用設計で慎重に構成されている。
大規模な実験により,我々のフレームワークは現状の手法よりも20%から40%の定量的な性能向上を実現し,質的な結果が得られた。
我々の有望な結果は、様々な強力なクラウドモデリングアーキテクチャや処理技術を活用可能な、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
コードとデータはhttps://github.com/yztang4/HaP.comで公開します。
関連論文リスト
- Semi-supervised Single-view 3D Reconstruction via Multi Shape Prior Fusion Strategy and Self-Attention [0.0]
半教師付き学習戦略はラベル付きデータへの依存を減らす革新的なアプローチを提供する。
我々は3次元再構成のための革新的なフレームワークを作成した。
当社のフレームワークでは,ベースラインよりも3.3%パフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-11-23T02:46:16Z) - Masked Generative Extractor for Synergistic Representation and 3D Generation of Point Clouds [6.69660410213287]
我々は,3次元表現学習と生成学習を深く統合する利点を探るため,Point-MGEと呼ばれる革新的なフレームワークを提案する。
形状分類において、Point-MGEはModelNet40データセットで94.2%(+1.0%)、ScanObjectNNデータセットで92.9%(+5.5%)の精度を達成した。
また,非条件条件と条件条件条件条件の両方で,Point-MGEが高品質な3D形状を生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-06-25T07:57:03Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - PatchMixer: Rethinking network design to boost generalization for 3D
point cloud understanding [2.512827436728378]
我々は、学習した知識を異なるドメインに転送するモデルの能力は、ディープネットワークアーキテクチャの品質を徹底的に評価するために評価すべき重要な特徴であると主張している。
PatchMixerは、最近の論文の背景にあるアイデアを3Dポイントクラウドに拡張する、シンプルだが効果的なアーキテクチャである。
論文 参考訳(メタデータ) (2023-07-28T17:37:53Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Depth Completion using Geometry-Aware Embedding [22.333381291860498]
本稿では,幾何認識の埋め込みを効率的に学習する手法を提案する。
局所的および大域的な幾何学的構造情報を、例えば、シーンレイアウト、オブジェクトのサイズと形状などの3Dポイントから符号化し、深度推定を導く。
論文 参考訳(メタデータ) (2022-03-21T12:06:27Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Learning Occupancy Function from Point Clouds for Surface Reconstruction [6.85316573653194]
表面から採取した点雲から3次元形状を復元するために, 入射関数に基づく表面再構成が長い間研究されてきた。
本稿では,スパース点雲から占有関数を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T02:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。