論文の概要: Robust Human Registration with Body Part Segmentation on Noisy Point Clouds
- arxiv url: http://arxiv.org/abs/2504.03602v1
- Date: Fri, 04 Apr 2025 17:17:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:48:02.406542
- Title: Robust Human Registration with Body Part Segmentation on Noisy Point Clouds
- Title(参考訳): ノイズ点雲上での身体部分分割によるロバストな人間登録
- Authors: Kai Lascheit, Daniel Barath, Marc Pollefeys, Leonidas Guibas, Francis Engelmann,
- Abstract要約: メッシュフィッティングプロセスにボディ部分のセグメンテーションを組み込んだハイブリッドアプローチを導入する。
本手法はまず,まず各点にボディ部ラベルを割り当て,次に2ステップのSMPL-Xフィッティングを導出する。
装着された人間のメッシュは、ボディ部分のラベルを洗練し、セグメンテーションの改善につながることを実証する。
- 参考スコア(独自算出の注目度): 73.00876572870787
- License:
- Abstract: Registering human meshes to 3D point clouds is essential for applications such as augmented reality and human-robot interaction but often yields imprecise results due to noise and background clutter in real-world data. We introduce a hybrid approach that incorporates body-part segmentation into the mesh fitting process, enhancing both human pose estimation and segmentation accuracy. Our method first assigns body part labels to individual points, which then guide a two-step SMPL-X fitting: initial pose and orientation estimation using body part centroids, followed by global refinement of the point cloud alignment. Additionally, we demonstrate that the fitted human mesh can refine body part labels, leading to improved segmentation. Evaluations on the cluttered and noisy real-world datasets InterCap, EgoBody, and BEHAVE show that our approach significantly outperforms prior methods in both pose estimation and segmentation accuracy. Code and results are available on our project website: https://segfit.github.io
- Abstract(参考訳): 人間のメッシュを3Dポイントクラウドに登録することは、拡張現実や人間とロボットのインタラクションのようなアプリケーションには不可欠だが、実世界のデータにノイズや背景が散らばっているため、しばしば不正確な結果をもたらす。
本稿では,人間のポーズ推定とセグメンテーション精度の両立を図り,身体部分のセグメンテーションをメッシュフィッティングプロセスに組み込むハイブリッドアプローチを提案する。
提案手法はまず,まず各点にボディ部ラベルを割り当て,次に2段階のSMPL-Xフィッティングを導出する。
さらに,人間のメッシュが身体部分のラベルを洗練し,セグメンテーションが向上することを示した。
乱雑でノイズの多い実世界のデータセットであるInterCap, EgoBody, BEHAVEの評価は, 提案手法がポーズ推定とセグメンテーション精度の両方において, 従来手法よりも有意に優れていたことを示している。
コードと結果はプロジェクトのWebサイト(https://segfit.github.io)で公開されています。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - PWISeg: Point-based Weakly-supervised Instance Segmentation for Surgical
Instruments [27.89003436883652]
我々はPWISeg (Point-based Weakly-supervised Instance) という,弱制御型手術器具セグメンテーション手法を提案する。
PWISegは、特徴点とバウンディングボックスの関係をモデル化するために、ポイント・ツー・ボックスとポイント・ツー・マスクのブランチを備えたFCNベースのアーキテクチャを採用している。
そこで本研究では,キー・ツー・マスク・ブランチを駆動し,より正確なセグメンテーション予測を生成するキー・ピクセル・アソシエーション・ロスとキー・ピクセル・アソシエーション・ロスを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:48:29Z) - Sampling is Matter: Point-guided 3D Human Mesh Reconstruction [0.0]
本稿では,1枚のRGB画像から3次元メッシュ再構成を行うための簡易かつ強力な手法を提案する。
評価実験の結果,提案手法は3次元メッシュ再構成の性能を効率よく向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T08:45:26Z) - AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - VoteHMR: Occlusion-Aware Voting Network for Robust 3D Human Mesh
Recovery from Partial Point Clouds [32.72878775887121]
単フレーム部分点雲から信頼性の高い3次元形状を復元する最初の試みを行う。
本稿では,VoteHMRというエンドツーエンドの学習方法を提案する。
提案手法は,2つの大規模データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-17T05:42:04Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - Whole-Body Human Pose Estimation in the Wild [88.09875133989155]
COCO-WholeBodyは、全体アノテーションでCOCOデータセットを拡張する。
これは人体全体に手動のアノテーションがある最初のベンチマークである。
ZoomNetという名前のシングルネットワークモデルは、完全な人体の階層構造を考慮するために考案された。
論文 参考訳(メタデータ) (2020-07-23T08:35:26Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - HEMlets PoSh: Learning Part-Centric Heatmap Triplets for 3D Human Pose
and Shape Estimation [60.35776484235304]
本研究は, 中間状態部分熱マップトリプレット(HEMlets)を導入し, 検出された2次元関節を三次元空間に持ち上げる不確実性に対処しようとするものである。
HEMletsは3つのジョイントヒートマップを使用して、各骨格体部に対するエンドジョイントの相対的な深さ情報を表す。
Convolutional Network (ConvNet) は、入力画像からHEMletを予測し、次にボリュームのジョイント・ヒートマップレグレッションを学習する。
論文 参考訳(メタデータ) (2020-03-10T04:03:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。