論文の概要: Sim-Suction: Learning a Suction Grasp Policy for Cluttered Environments
Using a Synthetic Benchmark
- arxiv url: http://arxiv.org/abs/2305.16378v2
- Date: Mon, 27 Nov 2023 20:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 15:54:26.579835
- Title: Sim-Suction: Learning a Suction Grasp Policy for Cluttered Environments
Using a Synthetic Benchmark
- Title(参考訳): sim-suction:合成ベンチマークを用いたクラッタ環境における吸引把握ポリシーの学習
- Authors: Juncheng Li, David J. Cappelleri
- Abstract要約: Sim-Suctionは、動的なカメラ視点を持つモバイル操作プラットフォームのための堅牢なオブジェクト認識型吸引把握ポリシーである。
Sim-Suction-Datasetは、500の乱雑な環境と320万の注釈付き吸引グリップポーズで構成されている。
Sim-Suction-Pointnetは、Sim-Suction-Datasetからポイントワイズを学習することにより、ロバストな6次元吸引グリップポーズを生成する。
- 参考スコア(独自算出の注目度): 8.025760743074066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Sim-Suction, a robust object-aware suction grasp policy
for mobile manipulation platforms with dynamic camera viewpoints, designed to
pick up unknown objects from cluttered environments. Suction grasp policies
typically employ data-driven approaches, necessitating large-scale,
accurately-annotated suction grasp datasets. However, the generation of suction
grasp datasets in cluttered environments remains underexplored, leaving
uncertainties about the relationship between the object of interest and its
surroundings. To address this, we propose a benchmark synthetic dataset,
Sim-Suction-Dataset, comprising 500 cluttered environments with 3.2 million
annotated suction grasp poses. The efficient Sim-Suction-Dataset generation
process provides novel insights by combining analytical models with dynamic
physical simulations to create fast and accurate suction grasp pose
annotations. We introduce Sim-Suction-Pointnet to generate robust 6D suction
grasp poses by learning point-wise affordances from the Sim-Suction-Dataset,
leveraging the synergy of zero-shot text-to-segmentation. Real-world
experiments for picking up all objects demonstrate that Sim-Suction-Pointnet
achieves success rates of 96.76%, 94.23%, and 92.39% on cluttered level 1
objects (prismatic shape), cluttered level 2 objects (more complex geometry),
and cluttered mixed objects, respectively. The Sim-Suction policies outperform
state-of-the-art benchmarks tested by approximately 21% in cluttered mixed
scenes.
- Abstract(参考訳): 本稿では,動的カメラ視点を持つ移動体操作プラットフォームのためのロバストな物体認識型吸引把持ポリシであるsim-suctionを提案する。
吸引把握ポリシーは、通常、大規模で正確に注釈された吸引把握データセットを必要とするデータ駆動アプローチを用いる。
しかし、散らばった環境における吸引把握データセットの生成は未解明のままであり、興味の対象とその周辺環境との関係については不確実性を残している。
そこで本研究では,500個の乱雑な環境と320万個のアノテートされた吸引把握ポーズからなる,ベンチマーク合成データセットSim-Suction-Datasetを提案する。
効率的なsim-suction-dataset生成プロセスは、解析モデルと動的物理的シミュレーションを組み合わせて、高速で正確な吸入把握ポーズアノテーションを作成することによって、新しい洞察を提供する。
sim-suction-pointnet では,ゼロショットテキスト対セグメンテーションの相乗効果を活かし,sim-suction-dataset からポイントワイズアバタンスを学習することにより,ロバストな6次元吸引把持ポーズを生成する。
全ての物体を拾うための実世界の実験では、Sim-Suction-Pointnetは96.76%、94.23%、92.39%の粗いレベル1オブジェクト(原始的な形状)、粗いレベル2オブジェクト(より複雑な形状)、粗い混合オブジェクトをそれぞれ達成している。
Sim-Suctionポリシーは、散らかった混合シーンで約21%テストされた最先端のベンチマークを上回った。
関連論文リスト
- DrivingSphere: Building a High-fidelity 4D World for Closed-loop Simulation [54.02069690134526]
本研究では,現実的でクローズドループなシミュレーションフレームワークであるDrivingSphereを提案する。
その中核となる考え方は、4Dの世界表現を構築し、実生活と制御可能な運転シナリオを生成することである。
動的で現実的なシミュレーション環境を提供することで、DrivingSphereは自律運転アルゴリズムの包括的なテストと検証を可能にする。
論文 参考訳(メタデータ) (2024-11-18T03:00:33Z) - DexGraspNet 2.0: Learning Generative Dexterous Grasping in Large-scale Synthetic Cluttered Scenes [18.95051035812627]
1319のオブジェクト,8270のシーン,4億2700万のグリップを含む大規模合成ベンチマークを提示する。
また,局所幾何学を条件とした拡散モデルを用いて,データから効率的に学習する新しい2段階把握手法を提案する。
テスト時間深度復元の助けを借りて,ゼロショット・シム・トゥ・リアル・トランスファーを実証し,90.7%の精度で撮影に成功した。
論文 参考訳(メタデータ) (2024-10-30T13:30:39Z) - Sim-Grasp: Learning 6-DOF Grasp Policies for Cluttered Environments Using a Synthetic Benchmark [6.7936188782093945]
シム・グラスプ(Sim-Grasp)は、6-DOF2指グルーピングシステムで、乱雑な環境下でのオブジェクト操作を改善するための高度な言語モデルを統合する。
我々はSim-Grasp-Datasetを紹介し、500のシナリオに7.9百万のアノテートラベルを持つ1,550のオブジェクトを含み、ポイントクラウドから把握ポーズを生成するSim-GraspNetを開発した。
論文 参考訳(メタデータ) (2024-05-01T20:08:51Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - PACE: A Large-Scale Dataset with Pose Annotations in Cluttered Environments [50.79058028754952]
PACE(Pose s in Cluttered Environments)は、散在シナリオにおけるポーズ推定手法の大規模ベンチマークである。
ベンチマークは55Kフレームで構成され、300の動画に258Kのアノテーションがあり、43のカテゴリから238のオブジェクトをカバーしている。
PACE-Simには、931オブジェクトにわたる2.4Mアノテーションを備えた100Kのフォトリアリスティックシミュレートフレームが含まれている。
論文 参考訳(メタデータ) (2023-12-23T01:38:41Z) - Benchmarking the Sim-to-Real Gap in Cloth Manipulation [10.530012817995656]
布の操作におけるシム・トゥ・リアルギャップを評価するためのベンチマークデータセットを提案する。
このデータセットを用いて、一般的な4つの変形可能なオブジェクトシミュレータの現実的ギャップ、計算時間、安定性を評価する。
論文 参考訳(メタデータ) (2023-10-14T09:36:01Z) - Sim-MEES: Modular End-Effector System Grasping Dataset for Mobile
Manipulators in Cluttered Environments [10.414347878456852]
本稿では,難易度や物理特性の異なる1,550個のオブジェクトを含む大規模合成データセットを提案する。
我々のデータセット生成プロセスは、クラスタリングされた環境全体の解析モデルと動的シミュレーションを組み合わせて、正確な把握ラベルを提供する。
論文 参考訳(メタデータ) (2023-05-17T21:40:26Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。