論文の概要: XYZ-IBD: High-precision Bin-picking Dataset for Object 6D Pose Estimation Capturing Real-world Industrial Complexity
- arxiv url: http://arxiv.org/abs/2506.00599v1
- Date: Sat, 31 May 2025 15:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.283553
- Title: XYZ-IBD: High-precision Bin-picking Dataset for Object 6D Pose Estimation Capturing Real-world Industrial Complexity
- Title(参考訳): XYZ-IBD:実世界の産業複雑度を捉えるオブジェクト6次元空間推定のための高精度ビンピッキングデータセット
- Authors: Junwen Huang, Jizhong Liang, Jiaqi Hu, Martin Sundermeyer, Peter KT Yu, Nassir Navab, Benjamin Busam,
- Abstract要約: XYZ-IBDは6Dポーズ推定のためのビンピッキングデータセットである。
ミリ精度アノテーションによる本物のロボット操作のシナリオを反映している。
データセットには15のテクスチャなし、金属で、ほとんど対称な形状と大きさのオブジェクトが含まれている。
- 参考スコア(独自算出の注目度): 46.05421425745179
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce XYZ-IBD, a bin-picking dataset for 6D pose estimation that captures real-world industrial complexity, including challenging object geometries, reflective materials, severe occlusions, and dense clutter. The dataset reflects authentic robotic manipulation scenarios with millimeter-accurate annotations. Unlike existing datasets that primarily focus on household objects, which approach saturation,XYZ-IBD represents the unsolved realistic industrial conditions. The dataset features 15 texture-less, metallic, and mostly symmetrical objects of varying shapes and sizes. These objects are heavily occluded and randomly arranged in bins with high density, replicating the challenges of real-world bin-picking. XYZ-IBD was collected using two high-precision industrial cameras and one commercially available camera, providing RGB, grayscale, and depth images. It contains 75 multi-view real-world scenes, along with a large-scale synthetic dataset rendered under simulated bin-picking conditions. We employ a meticulous annotation pipeline that includes anti-reflection spray, multi-view depth fusion, and semi-automatic annotation, achieving millimeter-level pose labeling accuracy required for industrial manipulation. Quantification in simulated environments confirms the reliability of the ground-truth annotations. We benchmark state-of-the-art methods on 2D detection, 6D pose estimation, and depth estimation tasks on our dataset, revealing significant performance degradation in our setups compared to current academic household benchmarks. By capturing the complexity of real-world bin-picking scenarios, XYZ-IBD introduces more realistic and challenging problems for future research. The dataset and benchmark are publicly available at https://xyz-ibd.github.io/XYZ-IBD/.
- Abstract(参考訳): 我々は6次元ポーズ推定のためのビンピッキングデータセットであるXYZ-IBDを紹介した。
このデータセットは、ミリ精度のアノテーションを使った本物のロボット操作シナリオを反映している。
飽和に近づいた家庭用オブジェクトに主眼を置いている既存のデータセットとは異なり、XYZ-IBDは未解決の現実的な産業条件を表している。
データセットには15のテクスチャなし、金属で、ほとんど対称な形状と大きさのオブジェクトが含まれている。
これらの物体は密閉され、高密度のビンにランダムに配置されており、現実世界のビンピッキングの課題を再現している。
XYZ-IBDは2台の高精度産業用カメラと1台の商用カメラを使用して収集され、RGB、グレースケール、ディープイメージを提供する。
75のマルチビューリアルワールドシーンと、シミュレーションされたビンピッキング条件下でレンダリングされた大規模な合成データセットを含んでいる。
我々は、反反射スプレー、多視点深度融合、セミオートマチックアノテーションを含む細かなアノテーションパイプラインを使用し、工業的操作に必要なミリレベルのポーズラベル精度を実現する。
シミュレーション環境での定量化は、地平線アノテーションの信頼性を確認する。
我々は,2次元検出,6次元ポーズ推定,およびデータセットの深さ推定タスクに関する最先端の手法をベンチマークし,現在の家庭内ベンチマークと比較して,セットアップの大幅な性能劣化を明らかにした。
XYZ-IBDは、現実世界のビンピッキングシナリオの複雑さを捉えることで、将来の研究のためにより現実的で困難な問題を提起する。
データセットとベンチマークはhttps://xyz-ibd.github.io/XYZ-IBD/で公開されている。
関連論文リスト
- OmniEraser: Remove Objects and Their Effects in Images with Paired Video-Frame Data [21.469971783624402]
本稿では,現実的な物体影と反射を伴う10万以上の高品質なサンプルからなる大規模データセットであるVideo4Removalを提案する。
ビデオフレームと市販のビジョンモデルからオブジェクト-バックグラウンドペアを構築することにより、データ取得の作業コストを大幅に削減することができる。
形状的なアーティファクトや意図しないコンテンツを生成するのを避けるために,Object-Background Guidanceを提案する。
我々は,オブジェクトマスクのみを入力として,オブジェクトとその視覚効果をシームレスに除去する新しい手法であるOmniEraserを提案する。
論文 参考訳(メタデータ) (2025-01-13T15:12:40Z) - Boundless: Generating Photorealistic Synthetic Data for Object Detection in Urban Streetscapes [7.948212109423146]
本研究では,高密度都市景観におけるオブジェクト検出のための写真リアルな合成データ生成システムであるBoundlessを紹介する。
Boundlessは、大規模な実世界のデータ収集と手動のグラウンドトルースオブジェクトアノテーション(ラベル付け)を置き換えることができる
本研究では、Boundlessが生成したデータセットに基づいて学習したオブジェクト検出モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-04T18:28:10Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - PhoCaL: A Multi-Modal Dataset for Category-Level Object Pose Estimation
with Photometrically Challenging Objects [45.31344700263873]
我々は、PhoCaLと呼ばれる光度に挑戦するオブジェクトを用いたカテゴリレベルのオブジェクトポーズ推定のためのマルチモーダルデータセットを提案する。
PhoCaLは、高い反射率、透明度、対称度を含む8種類以上の家庭用品の60種類の高品質な3Dモデルで構成されている。
これにより、不透明で光沢のある透明な物体のポーズのサブミリ秒精度が保証され、動きのぼやけも無く、カメラの同期も完璧になる。
論文 参考訳(メタデータ) (2022-05-18T09:21:09Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。