論文の概要: GraspClutter6D: A Large-scale Real-world Dataset for Robust Perception and Grasping in Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2504.06866v1
- Date: Wed, 09 Apr 2025 13:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:01.069377
- Title: GraspClutter6D: A Large-scale Real-world Dataset for Robust Perception and Grasping in Cluttered Scenes
- Title(参考訳): GraspClutter6D: クラッタシーンにおけるロバスト知覚とグラッピングのための大規模実世界のデータセット
- Authors: Seunghyeok Back, Joosoon Lee, Kangmin Kim, Heeseon Rho, Geonhyup Lee, Raeyoung Kang, Sangbeom Lee, Sangjun Noh, Youngjin Lee, Taeyeop Lee, Kyoobin Lee,
- Abstract要約: GraspClutter6Dは、1,000の散らばったシーンと密集したアレンジメントを特徴とする、大規模な現実世界の把握データセットである。
我々は,最先端のセグメンテーション,オブジェクトポーズ推定,把握検出手法のベンチマークを行い,乱雑な環境における課題に対する重要な洞察を提供する。
トレーニングリソースとしてのデータセットの有効性を検証し、GraspClutter6Dでトレーニングされたネットワークの把握が、シミュレーションと実世界の実験の両方において、既存のデータセットでトレーニングされたネットワークよりも大幅に優れていることを示した。
- 参考スコア(独自算出の注目度): 5.289647064481469
- License:
- Abstract: Robust grasping in cluttered environments remains an open challenge in robotics. While benchmark datasets have significantly advanced deep learning methods, they mainly focus on simplistic scenes with light occlusion and insufficient diversity, limiting their applicability to practical scenarios. We present GraspClutter6D, a large-scale real-world grasping dataset featuring: (1) 1,000 highly cluttered scenes with dense arrangements (14.1 objects/scene, 62.6\% occlusion), (2) comprehensive coverage across 200 objects in 75 environment configurations (bins, shelves, and tables) captured using four RGB-D cameras from multiple viewpoints, and (3) rich annotations including 736K 6D object poses and 9.3B feasible robotic grasps for 52K RGB-D images. We benchmark state-of-the-art segmentation, object pose estimation, and grasping detection methods to provide key insights into challenges in cluttered environments. Additionally, we validate the dataset's effectiveness as a training resource, demonstrating that grasping networks trained on GraspClutter6D significantly outperform those trained on existing datasets in both simulation and real-world experiments. The dataset, toolkit, and annotation tools are publicly available on our project website: https://sites.google.com/view/graspclutter6d.
- Abstract(参考訳): 散らかった環境でのロバストな把握は、ロボティクスにおけるオープンな課題である。
ベンチマークデータセットには、かなり高度なディープラーニング手法があるが、それらは主に、単純化されたシーンに重点を置いており、軽量で多様性が不十分で、現実的なシナリオに適用性に制限されている。
我々は,(1)密な配置(14.1オブジェクト/シーン,62.6\%オクルージョン),(2)75の環境構成(ビン,棚,テーブル)で200個のオブジェクトを包括的にカバーする,(3)736K 6Dオブジェクトのポーズを含むリッチアノテーション,および52K RGB-Dイメージのための9.3Bロボットグルーピングを含む大規模実世界のグルーピングデータセットであるGraspClutter6Dを提案する。
我々は,最先端のセグメンテーション,オブジェクトポーズ推定,把握検出手法のベンチマークを行い,散在する環境における課題に対する重要な洞察を提供する。
さらに、データセットの有効性をトレーニングリソースとして検証し、GraspClutter6Dでトレーニングされたネットワークの把握が、シミュレーションと実世界の実験の両方において、既存のデータセットでトレーニングされたネットワークよりも大幅に優れていることを示した。
データセット、ツールキット、アノテーションツールは、プロジェクトのWebサイトで公開されています。
関連論文リスト
- Towards Cross-device and Training-free Robotic Grasping in 3D Open World [20.406334587479623]
本稿では,オープンワールドシナリオにおいて,学習を必要とせずにオブジェクト把握タスクを実行できる新しいパイプラインを提案する。
本稿では,セグメンテーション精度を向上し,未確認オブジェクトをクラスタ化およびローカライズする機能を有する,学習不要なバイナリクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T08:23:28Z) - PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - PACE: A Large-Scale Dataset with Pose Annotations in Cluttered Environments [50.79058028754952]
PACE(Pose s in Cluttered Environments)は、散在シナリオにおけるポーズ推定手法の大規模ベンチマークである。
ベンチマークは55Kフレームで構成され、300の動画に258Kのアノテーションがあり、43のカテゴリから238のオブジェクトをカバーしている。
PACE-Simには、931オブジェクトにわたる2.4Mアノテーションを備えた100Kのフォトリアリスティックシミュレートフレームが含まれている。
論文 参考訳(メタデータ) (2023-12-23T01:38:41Z) - HANDAL: A Dataset of Real-World Manipulable Object Categories with Pose
Annotations, Affordances, and Reconstructions [17.9178233068395]
本稿では,カテゴリレベルのオブジェクトポーズ推定とアベイランス予測のためのHANDALデータセットを提案する。
このデータセットは、17のカテゴリで212の現実世界のオブジェクトの2.2kビデオから308kの注釈付き画像フレームで構成されている。
6-DoFカテゴリレベルのポーズ+スケール推定と関連するタスクに対するデータセットの有用性について概説する。
論文 参考訳(メタデータ) (2023-08-02T23:59:59Z) - Habitat Synthetic Scenes Dataset (HSSD-200): An Analysis of 3D Scene
Scale and Realism Tradeoffs for ObjectGoal Navigation [70.82403156865057]
本研究では,合成3次元シーン・データセット・スケールとリアリズムが,オブジェクトの探索とナビゲートを行う具体的エージェントの訓練作業に与える影響について検討する。
我々の実験によると、我々の小規模データセットで訓練されたエージェントは、はるかに大きなデータセットで訓練されたエージェントと一致するか、より優れています。
論文 参考訳(メタデータ) (2023-06-20T05:07:23Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Weakly Supervised 3D Object Detection from Lidar Point Cloud [182.67704224113862]
高品質な3Dオブジェクト検出器をトレーニングするために、ポイントクラウドデータに手動でラベルをつけるのはむずかしい。
本研究は、3次元物体検出のための弱教師付きアプローチを提案する。
提案手法は,500の弱い注釈付きシーンと534の正確なラベル付き車両インスタンスを用いて,現在のトップリード型全監視検出器の性能を85~95%向上させる。
論文 参考訳(メタデータ) (2020-07-23T10:12:46Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - How to track your dragon: A Multi-Attentional Framework for real-time
RGB-D 6-DOF Object Pose Tracking [35.21561169636035]
本稿では,リアルタイムRGB-D 6Dオブジェクトのポーズトラッキング問題に対処するために,新しい多目的畳み込みアーキテクチャを提案する。
物体の3次元モデルとポーズ空間の両方の特別な幾何学的性質を考察し、トレーニング中のデータ拡張により洗練されたアプローチを用いる。
論文 参考訳(メタデータ) (2020-04-21T23:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。