論文の概要: TrackDeform3D: Markerless and Autonomous 3D Keypoint Tracking and Dataset Collection for Deformable Objects
- arxiv url: http://arxiv.org/abs/2603.17068v1
- Date: Tue, 17 Mar 2026 18:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.361049
- Title: TrackDeform3D: Markerless and Autonomous 3D Keypoint Tracking and Dataset Collection for Deformable Objects
- Title(参考訳): TrackDeform3D: 変形可能なオブジェクトのためのマーカレスで自律的な3Dキーポイントトラッキングとデータセットコレクション
- Authors: Yeheng Zong, Yizhou Chen, Alexander Bowler, Chia-Tung Yang, Ram Vasudevan,
- Abstract要約: 本稿では、RGB-Dカメラのみを用いて、変形可能なオブジェクトの3Dデータセットを収集するための安価なフレームワークを提案する。
提案手法は3次元キーポイントを同定し,動きの整合性制約を組み込んだトラジェクトリを頑健に追跡する。
本稿では,6つの変形可能なオブジェクトからなる,110分間の軌跡データからなる高品質な大規模データセットを提案する。
- 参考スコア(独自算出の注目度): 48.763448779200324
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Structured 3D representations such as keypoints and meshes offer compact, expressive descriptions of deformable objects, jointly capturing geometric and topological information useful for downstream tasks such as dynamics modeling and motion planning. However, robustly extracting such representations remains challenging, as current perception methods struggle to handle complex deformations. Moreover, large-scale 3D data collection remains a bottleneck: existing approaches either require prohibitive data collection efforts, such as labor-intensive annotation or expensive motion capture setups, or rely on simplifying assumptions that break down in unstructured environments. As a result, large-scale 3D datasets and benchmarks for deformable objects remain scarce. To address these challenges, this paper presents an affordable and autonomous framework for collecting 3D datasets of deformable objects using only RGB-D cameras. The proposed method identifies 3D keypoints and robustly tracks their trajectories, incorporating motion consistency constraints to produce temporally smooth and geometrically coherent data. TrackDeform3D is evaluated against several state-of-the-art tracking methods across diverse object categories and demonstrates consistent improvements in both geometric and tracking accuracy. Using this framework, this paper presents a high-quality, large-scale dataset consisting of 6 deformable objects, totaling 110 minutes of trajectory data.
- Abstract(参考訳): キーポイントやメッシュのような構造化された3D表現は、変形可能なオブジェクトのコンパクトで表現力豊かな記述を提供し、ダイナミックスモデリングやモーションプランニングのような下流のタスクに有用な幾何学的および位相的情報を共同でキャプチャする。
しかし、現在の知覚法は複雑な変形を扱うのに苦労するため、そのような表現を頑健に抽出することは依然として困難である。
さらに、大規模な3Dデータ収集はボトルネックであり、既存のアプローチでは、労働集約的なアノテーションや高価なモーションキャプチャのセットアップといった禁止されたデータ収集の努力を必要とするか、非構造化環境での仮定の単純化に依存している。
その結果、変形可能なオブジェクトの大規模な3Dデータセットとベンチマークは依然として不足している。
これらの課題に対処するために,RGB-Dカメラのみを用いて変形可能な物体の3次元データセットを収集する,安価で自律的なフレームワークを提案する。
提案手法は3次元キーポイントを同定し,その軌跡を頑健に追跡し,時間的に滑らかで幾何的に整合したデータを生成するために動きの整合性制約を取り入れた。
TrackDeform3Dは、さまざまなオブジェクトカテゴリにわたる最先端のトラッキング手法に対して評価され、幾何的および追跡精度の両面で一貫した改善を示す。
本稿では,6つの変形可能なオブジェクトからなる,110分間の軌跡データからなる高品質な大規模データセットを提案する。
関連論文リスト
- ShapeR: Robust Conditional 3D Shape Generation from Casual Captures [16.658667897650506]
そこで本研究では, カジュアルな3次元オブジェクト形状生成手法であるShapeRを提案する。
既製の視覚慣性SLAM, 3次元検出アルゴリズム, および視覚言語モデルを用いて, 各オブジェクトに対して, スパースSLAM点の集合, 多視点画像, 機械生成キャプションを抽出する。
これらのモダリティを効果的に条件付けるように訓練された整流流変圧器は、高忠実度メートル法3D形状を生成する。
論文 参考訳(メタデータ) (2026-01-16T18:51:24Z) - PLOT: Pseudo-Labeling via Video Object Tracking for Scalable Monocular 3D Object Detection [35.524943073010675]
モノクロ3Dオブジェクト検出(M3OD)は、高アノテーションコストと固有の2Dから3Dの曖昧さに起因するデータの不足により、長年にわたって課題に直面してきた。
ビデオデータのみを使用し、マルチビュー設定、追加センサー、カメラポーズ、ドメイン固有のトレーニングを必要とせず、より堅牢な疑似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-03T07:46:39Z) - Self-Supervised Multi-Part Articulated Objects Modeling via Deformable Gaussian Splatting and Progressive Primitive Segmentation [23.18517560629462]
DeGSSは,物体を変形可能な3次元ガウス場として符号化し,幾何学,外観,動きを1つのコンパクト表現に埋め込む統一フレームワークである。
一般化とリアリズムを評価するために、合成PartNet-Mobilityベンチマークを拡張し、RGBキャプチャと正確にリバースエンジニアリングされた3Dモデルを組み合わせたリアル・トゥ・シムデータセットRS-Artをリリースする。
論文 参考訳(メタデータ) (2025-06-11T12:32:16Z) - Generalizing Single-View 3D Shape Retrieval to Occlusions and Unseen
Objects [32.32128461720876]
シングルビュー3D形状検索は、利用可能な3Dデータの増大に伴ってますます重要になる課題である。
我々は,3つの異なる軸に沿って一視点の3次元形状検索を体系的に評価し,物体の閉塞や切り離しの存在,見えない3次元形状データへの一般化,入力画像における見えない物体への一般化について検討した。
論文 参考訳(メタデータ) (2023-12-31T05:39:38Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。