論文の概要: GraspFactory: A Large Object-Centric Grasping Dataset
- arxiv url: http://arxiv.org/abs/2509.20550v1
- Date: Wed, 24 Sep 2025 20:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.582488
- Title: GraspFactory: A Large Object-Centric Grasping Dataset
- Title(参考訳): GraspFactory: 大規模オブジェクト中心のグラフデータ
- Authors: Srinidhi Kalgundi Srinivas, Yash Shukla, Adam Arnold, Sachin Chitta,
- Abstract要約: GraspFactoryは、Franka PandaとRobotiq 2F-85のグリップに対して、合計で109万以上の6-DoFグリップを含むデータセットである。
本研究では,GraspFactoryのサブセット上でトレーニングされたそのようなモデルの,シミュレーションと実世界の両方の設定における一般化能力を実証する。
- 参考スコア(独自算出の注目度): 1.712244284792245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic grasping is a crucial task in industrial automation, where robots are increasingly expected to handle a wide range of objects. However, a significant challenge arises when robot grasping models trained on limited datasets encounter novel objects. In real-world environments such as warehouses or manufacturing plants, the diversity of objects can be vast, and grasping models need to generalize to this diversity. Training large, generalizable robot-grasping models requires geometrically diverse datasets. In this paper, we introduce GraspFactory, a dataset containing over 109 million 6-DoF grasps collectively for the Franka Panda (with 14,690 objects) and Robotiq 2F-85 grippers (with 33,710 objects). GraspFactory is designed for training data-intensive models, and we demonstrate the generalization capabilities of one such model trained on a subset of GraspFactory in both simulated and real-world settings. The dataset and tools are made available for download at https://graspfactory.github.io/.
- Abstract(参考訳): ロボットの把握は産業の自動化において重要な課題であり、ロボットはより広い範囲の物体を扱うことが期待されている。
しかし、限られたデータセットで訓練されたロボットの把握モデルが新しいオブジェクトに遭遇すると、大きな課題が生じる。
倉庫や製造工場のような現実世界の環境では、物体の多様性は広大なものになり、モデルの把握はこの多様性に一般化する必要がある。
大規模で一般化可能なロボットグラスピングモデルのトレーニングには、幾何学的に多様なデータセットが必要である。
本稿では,Franka Panda(14,690個のオブジェクト)とRobotiq 2F-85(33,710個のオブジェクト)の合計109万以上の6-DoFグリップを含むデータセットであるGraspFactoryを紹介する。
GraspFactoryは、データ集約モデルのトレーニング用に設計されており、シミュレーションと実世界の両方の設定において、GraspFactoryのサブセットでトレーニングされたそのようなモデルの一般化機能を示す。
データセットとツールはhttps://graspfactory.github.io/.comからダウンロードできる。
関連論文リスト
- Grasp-Anything: Large-scale Grasp Dataset from Foundation Models [15.17542697393971]
ファンデーションモデルは、日々の生活で遭遇するオブジェクトを含む、現実世界の知識の広範なリポジトリを持っています。
このソリューションを実装するために,基礎モデルから合成した大規模グリップデータセットであるGrasp-Anythingを提案する。
本研究では,Grasp-Anythingが視覚に基づくタスクや実世界のロボット実験において,ゼロショットの把握を容易にすることを示す。
論文 参考訳(メタデータ) (2023-09-18T14:39:26Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。