論文の概要: CHIP: A multi-sensor dataset for 6D pose estimation of chairs in industrial settings
- arxiv url: http://arxiv.org/abs/2506.09699v1
- Date: Wed, 11 Jun 2025 13:13:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.988579
- Title: CHIP: A multi-sensor dataset for 6D pose estimation of chairs in industrial settings
- Title(参考訳): CHIP:産業環境における椅子の6次元ポーズ推定のためのマルチセンサデータセット
- Authors: Mattia Nardon, Mikel Mujika Agirre, Ander González Tomé, Daniel Sedano Algarabel, Josep Rueda Collell, Ana Paola Caro, Andrea Caraffa, Fabio Poiesi, Paul Ian Chippendale, Davide Boscaini,
- Abstract要約: CHIPは、実際の産業環境における椅子の6次元ポーズ推定のために設計された最初のデータセットである。
CHIPは、ロボットのキネマティクスから自動的に派生した6Dポーズに注釈付けされた77,811RGBD画像からなる。
結果は、データセットがもたらすユニークな課題を強調しながら、改善の余地がかなりあることを示している。
- 参考スコア(独自算出の注目度): 4.310149395049504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate 6D pose estimation of complex objects in 3D environments is essential for effective robotic manipulation. Yet, existing benchmarks fall short in evaluating 6D pose estimation methods under realistic industrial conditions, as most datasets focus on household objects in domestic settings, while the few available industrial datasets are limited to artificial setups with objects placed on tables. To bridge this gap, we introduce CHIP, the first dataset designed for 6D pose estimation of chairs manipulated by a robotic arm in a real-world industrial environment. CHIP includes seven distinct chairs captured using three different RGBD sensing technologies and presents unique challenges, such as distractor objects with fine-grained differences and severe occlusions caused by the robotic arm and human operators. CHIP comprises 77,811 RGBD images annotated with ground-truth 6D poses automatically derived from the robot's kinematics, averaging 11,115 annotations per chair. We benchmark CHIP using three zero-shot 6D pose estimation methods, assessing performance across different sensor types, localization priors, and occlusion levels. Results show substantial room for improvement, highlighting the unique challenges posed by the dataset. CHIP will be publicly released.
- Abstract(参考訳): 3次元環境における複雑な物体の正確な6次元ポーズ推定は、効果的なロボット操作に不可欠である。
しかし、既存のベンチマークでは、実際の工業的条件下での6Dポーズ推定手法の評価に不足している。
このギャップを埋めるために、実際の産業環境でロボットアームが操作する椅子を6次元ポーズで推定するための最初のデータセットであるCHIPを導入する。
CHIPには、3つの異なるRGBDセンシング技術を使って捕獲された7つの異なる椅子が含まれており、細粒度の違いやロボットアームや人間の操作者によって引き起こされる重篤な閉塞など、ユニークな課題が提示されている。
CHIPは、ロボットのキネマティクスから自動的に派生した6Dポーズに注釈付けされた77,811のRGBD画像を含み、1椅子あたり平均11,115のアノテーションを出力する。
我々は3つのゼロショット6Dポーズ推定手法を用いてCHIPをベンチマークし、異なるセンサタイプ、ローカライゼーション先行、オクルージョンレベルを評価した。
結果は、データセットがもたらすユニークな課題を強調しながら、改善の余地がかなりあることを示している。
CHIPは一般公開される。
関連論文リスト
- XYZ-IBD: High-precision Bin-picking Dataset for Object 6D Pose Estimation Capturing Real-world Industrial Complexity [46.05421425745179]
XYZ-IBDは6Dポーズ推定のためのビンピッキングデータセットである。
ミリ精度アノテーションによる本物のロボット操作のシナリオを反映している。
データセットには15のテクスチャなし、金属で、ほとんど対称な形状と大きさのオブジェクトが含まれている。
論文 参考訳(メタデータ) (2025-05-31T15:15:27Z) - Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - Zero123-6D: Zero-shot Novel View Synthesis for RGB Category-level 6D Pose Estimation [66.3814684757376]
本研究は,RGB 6Dのカテゴリレベルでのポーズ推定を向上するための拡散モデルに基づく新規ビュー合成器の実用性を示す最初の研究であるZero123-6Dを示す。
本手法は,データ要求の低減,ゼロショットカテゴリレベルの6Dポーズ推定タスクにおける深度情報の必要性の除去,およびCO3Dデータセットの実験により定量的に示された性能の向上を示す。
論文 参考訳(メタデータ) (2024-03-21T10:38:18Z) - Advancing 6D Pose Estimation in Augmented Reality -- Overcoming Projection Ambiguity with Uncontrolled Imagery [0.0]
本研究では,拡張現実(AR)における正確な6次元ポーズ推定の課題に対処する。
本稿では,z軸変換と焦点長の推定を戦略的に分解する手法を提案する。
この手法は6次元ポーズ推定プロセスの合理化だけでなく、AR設定における3次元オブジェクトのオーバーレイの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-20T09:22:22Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Weakly Supervised Multi-Modal 3D Human Body Pose Estimation for
Autonomous Driving [0.5735035463793008]
3次元の人間のポーズ推定は、自動運転車(AV)が重要な道路シナリオにおいて情報的決定を行い、積極的に対応できるようにするために不可欠である。
カメラとLiDARデータを高レベルなセンサーで融合させることにより,AV環境下での3次元HPEの簡易かつ効率的な制御手法を提案する。
当社のアプローチは、弱教師付き環境でのオープンデータセットにおいて、最先端の結果を最大13%$simで上回ります。
論文 参考訳(メタデータ) (2023-07-27T14:28:50Z) - Learning 6D Pose Estimation from Synthetic RGBD Images for Robotic
Applications [0.6299766708197883]
提案したパイプラインは、興味のある対象のために大量の写真リアリスティックなRGBD画像を生成することができる。
オブジェクト検出器YOLO-V4-tinyと6次元ポーズ推定アルゴリズムPVN3Dを統合し,リアルタイム2次元ポーズ推定手法を開発した。
結果として得られたネットワークは、LineModデータセットで評価した場合の最先端手法と比較して、競合性能を示す。
論文 参考訳(メタデータ) (2022-08-30T14:17:15Z) - 6D Robotic Assembly Based on RGB-only Object Pose Estimation [35.74647604582182]
厳密な耐性を有するブロックを知覚・把握・操作・組み立てする統合型6次元ロボットシステムを提案する。
本システムは,物理的レンダリングを利用した合成画像のみを訓練したモノクロ6Dオブジェクトのポーズ推定ネットワーク上に構築されている。
論文 参考訳(メタデータ) (2022-08-27T11:26:24Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。