論文の概要: GraspCaps: A Capsule Network Approach for Familiar 6DoF Object Grasping
- arxiv url: http://arxiv.org/abs/2210.03628v2
- Date: Wed, 29 Nov 2023 19:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 23:35:05.731155
- Title: GraspCaps: A Capsule Network Approach for Familiar 6DoF Object Grasping
- Title(参考訳): GraspCaps: Familiar 6DoF Object Graspingのためのカプセルネットワークアプローチ
- Authors: Tomas van der Velde, Hamed Ayoobi, Hamidreza Kasaei
- Abstract要約: 本稿では、親しみのあるオブジェクトに対して、ポイントあたりの6Dグリップ構成を生成する新しいアーキテクチャであるGraspCapsを提案する。
また,シミュレートアニールを用いた大規模オブジェクトグラスピングデータセットの生成手法も提案した。
実験結果から,提案手法の全体的なオブジェクトグラスピング性能は,選択したベースラインよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 6.72184534513047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As robots become more widely available outside industrial settings, the need
for reliable object grasping and manipulation is increasing. In such
environments, robots must be able to grasp and manipulate novel objects in
various situations. This paper presents GraspCaps, a novel architecture based
on Capsule Networks for generating per-point 6D grasp configurations for
familiar objects. GraspCaps extracts a rich feature vector of the objects
present in the point cloud input, which is then used to generate per-point
grasp vectors. This approach allows the network to learn specific grasping
strategies for each object category. In addition to GraspCaps, the paper also
presents a method for generating a large object-grasping dataset using
simulated annealing. The obtained dataset is then used to train the GraspCaps
network. Through extensive experiments, we evaluate the performance of the
proposed approach, particularly in terms of the success rate of grasping
familiar objects in challenging real and simulated scenarios. The experimental
results showed that the overall object-grasping performance of the proposed
approach is significantly better than the selected baseline. This superior
performance highlights the effectiveness of the GraspCaps in achieving
successful object grasping across various scenarios.
- Abstract(参考訳): 産業以外ではロボットがより広く利用できるようになるにつれて、信頼できる物体把握と操作の必要性が高まっている。
このような環境では、ロボットは様々な状況で新しい物体を掴み、操作できなければならない。
本稿では,親しみやすい物体に対してポイント単位の6次元把持構成を生成するためのカプセルネットワークに基づく新しいアーキテクチャであるgravecapsを提案する。
GraspCapsは、ポイントクラウド入力に存在するオブジェクトのリッチな特徴ベクトルを抽出し、ポイント単位の把握ベクトルを生成する。
このアプローチにより、ネットワークは各オブジェクトカテゴリの特定の把握戦略を学ぶことができる。
また,GraspCapsに加えて,シミュレーションアニーリングを用いた大規模オブジェクトグラスピングデータセットを生成する手法も提案した。
得られたデータセットは、gravecapsネットワークのトレーニングに使用される。
広範にわたる実験により,提案手法の性能,特に実・模擬シナリオにおいてよく知られた物体の把握の成功率について評価した。
実験結果から,提案手法の全体的なオブジェクトグラスピング性能は,選択したベースラインよりも有意に優れていた。
この優れたパフォーマンスは、さまざまなシナリオにわたるオブジェクトの把握を成功させる上で、gravecapsの有効性を強調している。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - GraNet: A Multi-Level Graph Network for 6-DoF Grasp Pose Generation in
Cluttered Scenes [0.5755004576310334]
GraNetはグラフベースのグリップポーズ生成フレームワークで、ポイントクラウドシーンをマルチレベルグラフに変換する。
このパイプラインは, 散在するシーンにおけるグリップの空間分布を特徴付けることができ, 効果的グリップの速度が向上する。
提案手法は,大規模GraspNet-1Billionベンチマークにおいて,特に未確認オブジェクトの把握において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-06T08:36:29Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Deformable Capsules for Object Detection [3.702343116848637]
我々は,コンピュータビジョンにおいて重要な問題である物体検出に対処するために,新しいカプセルネットワーク,変形可能なカプセル(textitDeformCaps)を導入した。
提案手法は,本論文において,オブジェクト検出のためのカプセルネットワークを構築するために,効率よくスケールアップできることを実証する。
論文 参考訳(メタデータ) (2021-04-11T15:36:30Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Extended Target Tracking and Classification Using Neural Networks [1.2891210250935146]
最先端のETTアルゴリズムは、オブジェクトの動的挙動を追跡し、それらの形状を同時に学習することができる。
本研究では,1つの入力層,2つの隠れ層,および1つの出力層から構成されるナリーディープニューラルネットワークを用いて,それらの形状推定に関する動的オブジェクトを分類する。
論文 参考訳(メタデータ) (2020-02-13T12:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。