論文の概要: DDGC: Generative Deep Dexterous Grasping in Clutter
- arxiv url: http://arxiv.org/abs/2103.04783v1
- Date: Mon, 8 Mar 2021 14:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:11:20.537938
- Title: DDGC: Generative Deep Dexterous Grasping in Clutter
- Title(参考訳): DDGC: Clutterで生成するDeep Dexterous Grasping
- Authors: Jens Lundell, Francesco Verdoja, Ville Kyrki
- Abstract要約: DDGCは高速に生成するマルチフィンガーグリップサンプリング法であり、単一のRGB-D画像から散在するシーンの高品質なグリップを生成することができる。
GraspItのシミュレートアニーリングプランナーに対してDDGCを実験的にベンチマークします!
1200のシミュレートされたシーンと7つの現実世界シーン。
- 参考スコア(独自算出の注目度): 22.179327236733922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in multi-fingered robotic grasping have enabled fast
6-Degrees-Of-Freedom (DOF) single object grasping. Multi-finger grasping in
cluttered scenes, on the other hand, remains mostly unexplored due to the added
difficulty of reasoning over obstacles which greatly increases the
computational time to generate high-quality collision-free grasps. In this work
we address such limitations by introducing DDGC, a fast generative multi-finger
grasp sampling method that can generate high quality grasps in cluttered scenes
from a single RGB-D image. DDGC is built as a network that encodes scene
information to produce coarse-to-fine collision-free grasp poses and
configurations. We experimentally benchmark DDGC against the
simulated-annealing planner in GraspIt! on 1200 simulated cluttered scenes and
7 real world scenes. The results show that DDGC outperforms the baseline on
synthesizing high-quality grasps and removing clutter while being 5 times
faster. This, in turn, opens up the door for using multi-finger grasps in
practical applications which has so far been limited due to the excessive
computation time needed by other methods.
- Abstract(参考訳): 近年の多指ロボットグルーピングの進歩により、高速6次元自由度(DOF)単一物体グルーピングが可能になった。
一方, 乱れ場面でのマルチフィンガーグルーピングは, 高速な衝突のないグルーピングを生成するために, 計算時間を大幅に増加させる障害の推論が困難であることから, ほとんど未解明のままである。
本研究では,単一RGB-D画像から高画質な把握を生成できる高速なマルチフィンガー把握サンプリング手法であるDDGCを導入することで,このような制約に対処した。
ddgcはシーン情報をエンコードして、粗い衝突のないポーズと構成を生成するネットワークとして構築されている。
GraspItのシミュレートアニーリングプランナーに対してDDGCを実験的にベンチマークします!
1200のシミュレートされたシーンと7つの現実世界シーン。
その結果、DDGCは5倍速く、高品質の把握とクラッタの除去の合成のベースラインを上回っています。
これにより、他の手法で必要とされる過度の計算時間のためにこれまで制限されていた実用的なアプリケーションでマルチ指の把握を使用するための扉が開きます。
関連論文リスト
- OccGaussian: 3D Gaussian Splatting for Occluded Human Rendering [55.50438181721271]
表面レンダリングにNeRFを用いた従来手法では,閉鎖領域の復元には1日以上,閉塞領域のレンダリングには数秒を要していた。
OccGaussianは3D Gaussian Splattingをベースとして6分以内でトレーニングが可能で,最大160FPSまでの高品質な人体レンダリングを実現する。
論文 参考訳(メタデータ) (2024-04-12T13:00:06Z) - Accelerating Search-Based Planning for Multi-Robot Manipulation by Leveraging Online-Generated Experiences [20.879194337982803]
MAPF(Multi-Agent Path-Finding)アルゴリズムは、離散的な2Dドメインで保証され、厳密な保証を提供する。
本稿では,その反復的かつ漸進的な性質を活用して,競合に基づく探索アルゴリズムを高速化する手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T20:31:07Z) - Towards Grouping in Large Scenes with Occlusion-aware Spatio-temporal
Transformers [47.83631610648981]
特に大規模なシーンにおけるグループ検出は、公共の安全とスマートシティに多くの潜在的な応用がある。
既存の方法は、複数の人との大規模なシーンにおいて、頻繁に排他的に対処することができない。
本稿では,大規模シーンにおけるグループ検出のためのエンドツーエンドフレームワークTransformerを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:17:22Z) - ASAG: Building Strong One-Decoder-Layer Sparse Detectors via Adaptive
Sparse Anchor Generation [50.01244854344167]
適応スパースアンカージェネレータ(ASAG)の提案により、スパース検出器と密度検出器のパフォーマンスギャップを橋渡しする。
ASAGは、グリッドではなくパッチの動的なアンカーを予測することで、機能競合の問題を軽減する。
提案手法は高密度な手法より優れ,高速かつ高精度なトレードオフを実現する。
論文 参考訳(メタデータ) (2023-08-18T02:06:49Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - PEGG-Net: Pixel-Wise Efficient Grasp Generation in Complex Scenes [7.907697609965681]
本研究では,既存の平面グリップ推定アルゴリズムについて検討し,複雑な場面における課題を解析する。
複雑な場面で把握する問題に対処するため,Pixel-wise Efficient Grasp Generation Network (PEGG-Net) を設計する。
PEGG-Netはコーネルデータセット(98.9%)の最先端性能とジャカードデータセット(93.8%)の2番目に高いパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2022-03-30T13:44:19Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - Contact-GraspNet: Efficient 6-DoF Grasp Generation in Cluttered Scenes [50.303361537562715]
6-DoFパラレルジャッジの分布を効率的に生成するエンドツーエンドネットワークを提案する。
観測された点群の6-DoF把握ポーズと幅を根付かせることで、把握表現の寸法を4-DoFに縮小することができます。
構造クラッタにおける未知物体のロボット把持実験では, 90%以上の成功率を達成し, 最近の最先端手法と比較して, 故障率を半分に削減した。
論文 参考訳(メタデータ) (2021-03-25T20:33:29Z) - Multi-FinGAN: Generative Coarse-To-Fine Sampling of Multi-Finger Grasps [46.316638161863025]
本稿では,rgb-d画像から直接高画質把握を合成する高速生成型多指把持サンプリング手法であるmulti-finganを提案する。
シミュレーションにおける790の把握と実際のフランカ・エミカ・パンダの20の把握に対する標準的な把握方法に対して,本手法を実験的に検証し,ベンチマークした。
驚くべきことに、私たちのアプローチはベースラインよりも最大20〜30倍速く、フィードバックベースの把握再計画とタスク情報把握への扉を開く重要な改善です。
論文 参考訳(メタデータ) (2020-12-17T16:08:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。