論文の概要: PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds
- arxiv url: http://arxiv.org/abs/2308.14492v1
- Date: Mon, 28 Aug 2023 11:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 14:21:59.455719
- Title: PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds
- Title(参考訳): ポイントHPS:3次元人物図と点雲からの形状推定
- Authors: Zhongang Cai, Liang Pan, Chen Wei, Wanqi Yin, Fangzhou Hong, Mingyuan
Zhang, Chen Change Loy, Lei Yang, Ziwei Liu
- Abstract要約: 本稿では,実環境で捉えた点雲から正確な3次元HPSを実現するための基本的フレームワークであるPointHPSを提案する。
PointHPSは、カスケードアーキテクチャを通じてポイント機能を反復的に洗練する。
広範囲な実験により、ポイントHPSは強力な特徴抽出と処理方式を持ち、State-of-the-Art法より優れていることが示された。
- 参考スコア(独自算出の注目度): 99.60575439926963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human pose and shape estimation (HPS) has attracted increasing attention in
recent years. While most existing studies focus on HPS from 2D images or videos
with inherent depth ambiguity, there are surging need to investigate HPS from
3D point clouds as depth sensors have been frequently employed in commercial
devices. However, real-world sensory 3D points are usually noisy and
incomplete, and also human bodies could have different poses of high diversity.
To tackle these challenges, we propose a principled framework, PointHPS, for
accurate 3D HPS from point clouds captured in real-world settings, which
iteratively refines point features through a cascaded architecture.
Specifically, each stage of PointHPS performs a series of downsampling and
upsampling operations to extract and collate both local and global cues, which
are further enhanced by two novel modules: 1) Cross-stage Feature Fusion (CFF)
for multi-scale feature propagation that allows information to flow effectively
through the stages, and 2) Intermediate Feature Enhancement (IFE) for
body-aware feature aggregation that improves feature quality after each stage.
To facilitate a comprehensive study under various scenarios, we conduct our
experiments on two large-scale benchmarks, comprising i) a dataset that
features diverse subjects and actions captured by real commercial sensors in a
laboratory environment, and ii) controlled synthetic data generated with
realistic considerations such as clothed humans in crowded outdoor scenes.
Extensive experiments demonstrate that PointHPS, with its powerful point
feature extraction and processing scheme, outperforms State-of-the-Art methods
by significant margins across the board. Homepage:
https://caizhongang.github.io/projects/PointHPS/.
- Abstract(参考訳): 近年,ヒトのポーズと形状推定(HPS)が注目されている。
既存の研究は、2D画像やビデオの奥行きのあいまいさに重点を置いているが、深度センサーが商用機器で頻繁に使われているため、3Dポイントの雲からHPSを調べる必要がある。
しかし、現実世界の感覚3dポイントは通常騒がしく不完全であり、人間の体は高い多様性の異なるポーズを持つ可能性がある。
これらの課題に対処するために,実環境で捉えた点雲から正確な3次元HPSを実現するための,原則的フレームワークであるPointHPSを提案する。
具体的には、PointHPSの各ステージは、ローカルおよびグローバルの両方のキューを抽出および照合するために一連のダウンサンプリングおよびアップサンプリングを行い、2つの新しいモジュールによってさらに強化される。
1)情報伝達を効果的に行うマルチスケール特徴伝搬のためのクロスステージ特徴融合(CFF)
2)各段階の後に機能品質を向上させる身体認識機能集約のための中間機能強化(ife)。
様々なシナリオ下での総合的な研究を容易にするため、我々は2つの大規模ベンチマークで実験を行った。
一 実験室の環境において、実際の商業センサで捉えた多様な主題及び行動を示すデータセット
二 混雑した屋外の場面において、衣服を被った人間等の現実的な配慮で生成された合成データを制御すること。
広範な実験により、pointhpsは強力な点特徴抽出および処理スキームを持ち、最先端の手法をボード全体のかなりのマージンで上回っていることが示されている。
ホームページ: https://caizhongang.github.io/projects/pointhps/
関連論文リスト
- Self-Supervised Monocular Depth Estimation by Direction-aware Cumulative
Convolution Network [80.19054069988559]
自己教師付き単眼深度推定は, 方向感度と環境依存性を示す。
本稿では2つの側面において深度表現を改善する方向対応累積畳み込みネットワーク(DaCCN)を提案する。
実験の結果,提案手法は広く使用されている3つのベンチマークにおいて大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-08-10T14:32:18Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - PIDS: Joint Point Interaction-Dimension Search for 3D Point Cloud [36.55716011085907]
PIDSは、ポイントクラウドデータにセマンティックセグメンテーションを提供するために、ポイントインタラクションとポイントディメンションを共同で探求する新しいパラダイムである。
我々は多目的点相互作用と点次元を共同で検討する大規模な探索空間を確立する。
予測器をベースとしたニューラルアーキテクチャサーチ(NAS)を活用することにより,探索空間の探索を改善するとともに,予測の質を向上させる。
論文 参考訳(メタデータ) (2022-11-28T20:35:22Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - LATFormer: Locality-Aware Point-View Fusion Transformer for 3D Shape
Recognition [38.540048855119004]
そこで我々は,3次元形状検索と分類のためのLATFormer(Locality-Aware Point-View Fusion Transformer)を提案する。
LATFormerの中核となるコンポーネントはLocality-Aware Fusion (LAF) という名前のモジュールで、2つのモードにまたがる関連領域の局所的特徴を統合する。
LATFormerでは,LAFモジュールを用いて双方向および階層的に2つのモードのマルチスケール機能を融合し,より情報的な特徴を得る。
論文 参考訳(メタデータ) (2021-09-03T03:23:27Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。