論文の概要: Part Segmentation and Motion Estimation for Articulated Objects with Dynamic 3D Gaussians
- arxiv url: http://arxiv.org/abs/2506.22718v1
- Date: Sat, 28 Jun 2025 01:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.531063
- Title: Part Segmentation and Motion Estimation for Articulated Objects with Dynamic 3D Gaussians
- Title(参考訳): 動的3次元ガウス物体の部分分割と運動推定
- Authors: Jun-Jee Chao, Qingyuan Jiang, Volkan Isler,
- Abstract要約: パートセグメンテーションとモーション推定は、明瞭な物体の動き解析の基本的な問題である。
単音節物体の観測点雲列からこれらの問題を共同で解く方法を提案する。
- 参考スコア(独自算出の注目度): 25.737629732255556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part segmentation and motion estimation are two fundamental problems for articulated object motion analysis. In this paper, we present a method to solve these two problems jointly from a sequence of observed point clouds of a single articulated object. The main challenge in our problem setting is that the point clouds are not assumed to be generated by a fixed set of moving points. Instead, each point cloud in the sequence could be an arbitrary sampling of the object surface at that particular time step. Such scenarios occur when the object undergoes major occlusions, or if the dataset is collected using measurements from multiple sensors asynchronously. In these scenarios, methods that rely on tracking point correspondences are not appropriate. We present an alternative approach based on a compact but effective representation where we represent the object as a collection of simple building blocks modeled as 3D Gaussians. We parameterize the Gaussians with time-dependent rotations, translations, and scales that are shared across all time steps. With our representation, part segmentation can be achieved by building correspondences between the observed points and the Gaussians. Moreover, the transformation of each point across time can be obtained by following the poses of the assigned Gaussian (even when the point is not observed). Experiments show that our method outperforms existing methods that solely rely on finding point correspondences. Additionally, we extend existing datasets to emulate real-world scenarios by considering viewpoint occlusions. We further demonstrate that our method is more robust to missing points as compared to existing approaches on these challenging datasets, even when some parts are completely occluded in some time-steps. Notably, our part segmentation performance outperforms the state-of-the-art method by 13% on point clouds with occlusions.
- Abstract(参考訳): パートセグメンテーションとモーション推定は2つの基本的問題である。
本稿では,この2つの問題を,単音節物体の観測点雲列から共同で解く手法を提案する。
我々の問題設定における主な課題は、点雲が固定された移動点集合によって生成されると仮定されないことである。
その代わりに、シーケンス内の各点雲は、その特定の時間ステップにおける対象表面の任意のサンプリングである。
このようなシナリオは、オブジェクトが大きなオクルージョンを受けたときや、複数のセンサーから非同期に測定されたデータセットが収集されたときに発生する。
これらのシナリオでは、トラッキングポイント対応に依存するメソッドは適切ではない。
3次元ガウスアンとしてモデル化された単純な建物ブロックの集合としてオブジェクトを表現できる,コンパクトだが効果的な表現に基づく代替手法を提案する。
すべての時間ステップで共有される時間依存の回転、翻訳、スケールでガウスをパラメータ化します。
我々の表現では、部分分節化は観測された点とガウス点の間の対応を構築することで達成できる。
さらに、各点の時間的変換は、割り当てられたガウスのポーズ(点が観測されない場合でも)に従うことによって得られる。
実験の結果,本手法は点対応の発見にのみ依存する既存手法よりも優れていることがわかった。
さらに,既存のデータセットを拡張し,視点閉塞を考慮した実世界のシナリオをエミュレートする。
さらに我々は,これらの課題のあるデータセットに対する既存のアプローチと比較して,一部が完全に無視されている場合でも,この手法が欠落点に対してより堅牢であることを示す。
特に, 部分分割性能は, 閉塞のある点雲において, 最先端の手法よりも13%優れていた。
関連論文リスト
- You Only Estimate Once: Unified, One-stage, Real-Time Category-level Articulated Object 6D Pose Estimation for Robotic Grasping [119.41166438439313]
YOEOは、エンドツーエンドでインスタンスセグメンテーションとNPCS表現を出力する単一ステージのメソッドである。
我々は、統一ネットワークを使用してポイントワイズセマンティックラベルとセントロイドオフセットを生成し、同じパートインスタンスのポイントが同じセントロイドに投票できるようにする。
また,合成学習したモデルを実環境に展開し,200Hzでリアルタイムな視覚フィードバックを提供する。
論文 参考訳(メタデータ) (2025-06-06T03:49:20Z) - Local Occupancy-Enhanced Object Grasping with Multiple Triplanar Projection [24.00828999360765]
本稿では,一般的な物体をロボットでつかむという課題に対処する。
提案したモデルはまず、シーン内で最も可能性の高いいくつかの把握ポイントを提案する。
各グリップポイントの周囲に、モジュールはその近傍にある任意のボクセルが空か、ある物体に占有されているかを推測するように設計されている。
モデルはさらに、局所占有力向上した物体形状情報を利用して、6-DoFグリップポーズを推定する。
論文 参考訳(メタデータ) (2024-07-22T16:22:28Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point
Clouds [4.709764624933227]
OGCと呼ばれる最初の教師なしの手法を提案し、同時に複数の3Dオブジェクトを1つの前方通過で識別する。
提案手法を5つのデータセット上で広範囲に評価し,オブジェクト部分のインスタンスセグメンテーションにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-10T07:01:08Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Deep Confidence Guided Distance for 3D Partial Shape Registration [14.315501760755609]
部分的から部分的な3次元形状登録のための新しい非定型学習法を提案する。
本稿では,信頼誘導距離ネットワーク(CGD-net)を紹介し,点埋め込みと点雲間の空間距離との学習可能な類似性を融合させる。
論文 参考訳(メタデータ) (2022-01-27T08:40:05Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。