論文の概要: Contact-GraspNet: Efficient 6-DoF Grasp Generation in Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2103.14127v1
- Date: Thu, 25 Mar 2021 20:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 01:29:43.931408
- Title: Contact-GraspNet: Efficient 6-DoF Grasp Generation in Cluttered Scenes
- Title(参考訳): 接触グラフネット: クラッタシーンにおける効率的な6-DoFグラフ生成
- Authors: Martin Sundermeyer, Arsalan Mousavian, Rudolph Triebel, Dieter Fox
- Abstract要約: 6-DoFパラレルジャッジの分布を効率的に生成するエンドツーエンドネットワークを提案する。
観測された点群の6-DoF把握ポーズと幅を根付かせることで、把握表現の寸法を4-DoFに縮小することができます。
構造クラッタにおける未知物体のロボット把持実験では, 90%以上の成功率を達成し, 最近の最先端手法と比較して, 故障率を半分に削減した。
- 参考スコア(独自算出の注目度): 50.303361537562715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grasping unseen objects in unconstrained, cluttered environments is an
essential skill for autonomous robotic manipulation. Despite recent progress in
full 6-DoF grasp learning, existing approaches often consist of complex
sequential pipelines that possess several potential failure points and
run-times unsuitable for closed-loop grasping. Therefore, we propose an
end-to-end network that efficiently generates a distribution of 6-DoF
parallel-jaw grasps directly from a depth recording of a scene. Our novel grasp
representation treats 3D points of the recorded point cloud as potential grasp
contacts. By rooting the full 6-DoF grasp pose and width in the observed point
cloud, we can reduce the dimensionality of our grasp representation to 4-DoF
which greatly facilitates the learning process. Our class-agnostic approach is
trained on 17 million simulated grasps and generalizes well to real world
sensor data. In a robotic grasping study of unseen objects in structured
clutter we achieve over 90% success rate, cutting the failure rate in half
compared to a recent state-of-the-art method.
- Abstract(参考訳): 無拘束で乱雑な環境で目に見えない物体をつかむことは、自律的なロボット操作に欠かせないスキルである。
完全6自由度学習の最近の進歩にもかかわらず、既存のアプローチは、いくつかの潜在的な障害点と、クローズドループ把握に不適な実行時間を持つ複雑なシーケンシャルパイプラインで構成されることが多い。
そこで本研究では,シーンの深さ記録から直接,6-DoF並列ジャウグリップの分布を効率よく生成するエンドツーエンドネットワークを提案する。
この新しい把握表現は,記録された点雲の3次元点を潜在的な把握接点として扱う。
観測点雲に6-DoFのグリップポーズと幅を根づけることで、グリップ表現の次元を4-DoFに減らし、学習プロセスを大幅に促進することができる。
クラス非依存のアプローチは、1700万のシミュレーションによる把握を訓練し、現実世界のセンサーデータにうまく一般化します。
構造クラッタにおける未知物体のロボット把持実験では, 90%以上の成功率を達成し, 最近の最先端手法と比較して, 故障率を半分に削減した。
関連論文リスト
- Self-Contrastive Forward-Forward Algorithm [3.1361717406527667]
本稿では,自己指導型コントラスト学習に触発された自己コントラストフォワード(SCFF)手法を提案する。
SCFFは、さまざまなデータセットに適用可能な正および負の例を生成する。
これは、リカレントニューラルネットワークのFFトレーニングを有効にし、より複雑なタスクへの扉を開く最初のものだ。
論文 参考訳(メタデータ) (2024-09-17T22:58:20Z) - Language-Driven 6-DoF Grasp Detection Using Negative Prompt Guidance [13.246380364455494]
乱れ点雲における言語駆動型6-DoFグリップ検出のための新しい手法を提案する。
提案した負のプロンプト戦略は、望ましくない物体から遠ざかりながら、検出プロセスを所望の物体に向ける。
そこで本手法では,ロボットに自然言語で目的の物体を把握できるように指示するエンド・ツー・エンド・エンドのフレームワークを実現する。
論文 参考訳(メタデータ) (2024-07-18T18:24:51Z) - IPoD: Implicit Field Learning with Point Diffusion for Generalizable 3D Object Reconstruction from Single RGB-D Images [50.4538089115248]
シングルビューRGB-D画像からの3Dオブジェクトの汎用化は依然として難しい課題である。
本稿では,暗黙の場学習と点拡散を調和させる新しい手法IPoDを提案する。
CO3D-v2データセットによる実験では、IPoDの優位性が確認され、Fスコアは7.8%、チャンファー距離は28.6%向上した。
論文 参考訳(メタデータ) (2024-03-30T07:17:37Z) - GraNet: A Multi-Level Graph Network for 6-DoF Grasp Pose Generation in
Cluttered Scenes [0.5755004576310334]
GraNetはグラフベースのグリップポーズ生成フレームワークで、ポイントクラウドシーンをマルチレベルグラフに変換する。
このパイプラインは, 散在するシーンにおけるグリップの空間分布を特徴付けることができ, 効果的グリップの速度が向上する。
提案手法は,大規模GraspNet-1Billionベンチマークにおいて,特に未確認オブジェクトの把握において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-06T08:36:29Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Towards Confidence-guided Shape Completion for Robotic Applications [6.940242990198]
深層学習は、部分的な視覚データから完全な3Dオブジェクト表現を推測する効果的な方法として牽引され始めている。
本稿では,各再構成点に対する信頼度を示す暗黙の3次元表現に基づくオブジェクト形状完備化手法を提案する。
再構成された形状と地上の真実を比較し,ロボットの把握パイプラインに形状完了アルゴリズムを配置することにより,我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2022-09-09T13:48:24Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - Collision-Aware Target-Driven Object Grasping in Constrained
Environments [10.934615956723672]
6-DoF把握システムのための新しい衝突ウェア到達可能性予測器(CARP)を提案する。
CARPは、ポーズをつかむための衝突のない確率を推定することを学び、挑戦的な環境での把握を大幅に改善します。
シミュレーションと実世界の両方で実験した結果,本手法は新規物体の75%以上の把持率を達成した。
論文 参考訳(メタデータ) (2021-04-01T21:44:07Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。