論文の概要: Human as Points: Explicit Point-based 3D Human Reconstruction from
Single-view RGB Images
- arxiv url: http://arxiv.org/abs/2311.02892v1
- Date: Mon, 6 Nov 2023 05:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:12:14.124374
- Title: Human as Points: Explicit Point-based 3D Human Reconstruction from
Single-view RGB Images
- Title(参考訳): human as points:単視点rgb画像からの明示的なポイントベース3dヒューマンリコンストラクション
- Authors: Yingzhi Tang and Qijian Zhang and Junhui Hou and Yebin Liu
- Abstract要約: 我々はHaPと呼ばれる明示的なポイントベース人間再構築フレームワークを導入する。
提案手法は,3次元幾何学空間における完全明示的な点雲推定,操作,生成,洗練が特徴である。
我々の結果は、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
- 参考スコア(独自算出の注目度): 78.56114271538061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The latest trends in the research field of single-view human reconstruction
devote to learning deep implicit functions constrained by explicit body shape
priors. Despite the remarkable performance improvements compared with
traditional processing pipelines, existing learning approaches still show
different aspects of limitations in terms of flexibility, generalizability,
robustness, and/or representation capability. To comprehensively address the
above issues, in this paper, we investigate an explicit point-based human
reconstruction framework called HaP, which adopts point clouds as the
intermediate representation of the target geometric structure. Technically, our
approach is featured by fully-explicit point cloud estimation, manipulation,
generation, and refinement in the 3D geometric space, instead of an implicit
learning process that can be ambiguous and less controllable. The overall
workflow is carefully organized with dedicated designs of the corresponding
specialized learning components as well as processing procedures. Extensive
experiments demonstrate that our framework achieves quantitative performance
improvements of 20% to 40% over current state-of-the-art methods, and better
qualitative results. Our promising results may indicate a paradigm rollback to
the fully-explicit and geometry-centric algorithm design, which enables to
exploit various powerful point cloud modeling architectures and processing
techniques. We will make our code and data publicly available at
https://github.com/yztang4/HaP.
- Abstract(参考訳): 単視型ヒト再建研究の最近のトレンドは、明示的な体型に制約された深い暗黙の機能を学習することに集中している。
従来の処理パイプラインと比較して顕著なパフォーマンス向上にもかかわらず、既存の学習アプローチは、柔軟性、一般化可能性、堅牢性、および/または表現能力の面で制限の異なる側面を示している。
本稿では,これらの課題を包括的に解決するために,対象幾何学構造の中間表現としてポイントクラウドを採用する,hapと呼ばれる明示的なポイントベースヒューマンリコンストラクションフレームワークについて検討する。
技術的には、我々のアプローチは、曖昧で制御しにくい暗黙の学習プロセスではなく、3次元幾何学空間における完全に明示的な点雲の推定、操作、生成、改善によって特徴付けられる。
ワークフロー全体は、処理手順だけでなく、対応する専門的な学習コンポーネントの専用設計で注意深く構成されます。
広範な実験により,現在の手法よりも20%から40%の定量的性能向上を達成し,質的結果も向上した。
我々の有望な結果は、様々な強力なクラウドモデリングアーキテクチャや処理技術を活用可能な、完全に明示的で幾何学中心のアルゴリズム設計へのパラダイムのロールバックを示すかもしれない。
コードとデータをhttps://github.com/yztang4/hapで公開します。
関連論文リスト
- Semi-supervised Single-view 3D Reconstruction via Multi Shape Prior Fusion Strategy and Self-Attention [0.0]
半教師付き学習戦略はラベル付きデータへの依存を減らす革新的なアプローチを提供する。
我々は3次元再構成のための革新的なフレームワークを作成した。
当社のフレームワークでは,ベースラインよりも3.3%パフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-11-23T02:46:16Z) - Masked Generative Extractor for Synergistic Representation and 3D Generation of Point Clouds [6.69660410213287]
我々は,3次元表現学習と生成学習を深く統合する利点を探るため,Point-MGEと呼ばれる革新的なフレームワークを提案する。
形状分類において、Point-MGEはModelNet40データセットで94.2%(+1.0%)、ScanObjectNNデータセットで92.9%(+5.5%)の精度を達成した。
また,非条件条件と条件条件条件条件の両方で,Point-MGEが高品質な3D形状を生成可能であることを確認した。
論文 参考訳(メタデータ) (2024-06-25T07:57:03Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - PatchMixer: Rethinking network design to boost generalization for 3D
point cloud understanding [2.512827436728378]
我々は、学習した知識を異なるドメインに転送するモデルの能力は、ディープネットワークアーキテクチャの品質を徹底的に評価するために評価すべき重要な特徴であると主張している。
PatchMixerは、最近の論文の背景にあるアイデアを3Dポイントクラウドに拡張する、シンプルだが効果的なアーキテクチャである。
論文 参考訳(メタデータ) (2023-07-28T17:37:53Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Depth Completion using Geometry-Aware Embedding [22.333381291860498]
本稿では,幾何認識の埋め込みを効率的に学習する手法を提案する。
局所的および大域的な幾何学的構造情報を、例えば、シーンレイアウト、オブジェクトのサイズと形状などの3Dポイントから符号化し、深度推定を導く。
論文 参考訳(メタデータ) (2022-03-21T12:06:27Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Learning Occupancy Function from Point Clouds for Surface Reconstruction [6.85316573653194]
表面から採取した点雲から3次元形状を復元するために, 入射関数に基づく表面再構成が長い間研究されてきた。
本稿では,スパース点雲から占有関数を学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T02:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。