論文の概要: GraspCaps: Capsule Networks Are All You Need for Grasping Familiar
Objects
- arxiv url: http://arxiv.org/abs/2210.03628v1
- Date: Fri, 7 Oct 2022 15:32:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 14:44:32.160481
- Title: GraspCaps: Capsule Networks Are All You Need for Grasping Familiar
Objects
- Title(参考訳): GraspCaps: 親しみやすいオブジェクトをグラフ化するのに必要なカプセルネットワーク
- Authors: Tomas van der Velde, Hamidreza Kasaei
- Abstract要約: 親しみのあるオブジェクトに対して、ポイント単位のグリップ構成を生成する新しいアーキテクチャであるGraspCapsを提示する。
我々の研究では、最も深いカプセル層における各カプセルの活性化ベクトルは1つの特定の種類の物体に対応している。
このようにして、ネットワークは、ポイントクラウド入力に存在するオブジェクトのリッチな特徴ベクトルを抽出し、ポイント単位のベクトルを把握できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As robots become more accessible outside of industrial settings, the need for
reliable object grasping and manipulation grows significantly. In such dynamic
environments it is expected that the robot is capable of reliably grasping and
manipulating novel objects in different situations. In this work we present
GraspCaps: a novel architecture based on Capsule Networks for generating
per-point grasp configurations for familiar objects. In our work, the
activation vector of each capsule in the deepest capsule layer corresponds to
one specific class of object. This way, the network is able to extract a rich
feature vector of the objects present in the point cloud input, which is then
used for generating per-point grasp vectors. This approach should allow the
network to learn specific grasping strategies for each of the different object
categories. Along with GraspCaps we present a method for generating a large
object grasping dataset using simulated annealing. The obtained dataset is then
used to train the GraspCaps network. We performed an extensive set of
experiments to assess the performance of the proposed approach regarding
familiar object recognition accuracy and grasp success rate on challenging real
and simulated scenarios.
- Abstract(参考訳): 産業環境以外でロボットがよりアクセスしやすくなればなるほど、信頼性の高い物体の把握と操作の必要性は大きく高まる。
このような動的環境において,ロボットは異なる状況下で新たな物体を確実に把握し,操作できることが期待される。
本稿では,親しみやすい物体に対してポイント毎の把握構成を生成するためのカプセルネットワークに基づく新しいアーキテクチャであるgravecapsを提案する。
我々の研究では、最も深いカプセル層における各カプセルの活性化ベクトルは、ある特定の種類の物体に対応する。
このようにして、ネットワークはポイントクラウド入力に存在するオブジェクトのリッチな特徴ベクトルを抽出することができ、ポイント毎の把握ベクトルを生成するのに使用される。
このアプローチにより、ネットワークは、異なるオブジェクトカテゴリごとに特定の把握戦略を学ぶことができる。
GraspCapsとともに,シミュレーションアニールを用いた大規模物体把握データセットを生成する手法を提案する。
得られたデータセットは、gravecapsネットワークのトレーニングに使用される。
本研究は,実シナリオおよびシミュレーションシナリオにおいて,慣れ親しんだ物体認識精度と把持成功率に関する提案手法の性能を評価するために,多岐にわたる実験を行った。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Hierarchical Object-Centric Learning with Capsule Networks [0.0]
畳み込みニューラルネットワークの制限に対処するために、カプセルネットワーク(CapsNets)が導入された。
この論文はCapsNetsの興味深い側面を調査し、その潜在能力を解き放つための3つの重要な疑問に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-30T09:10:33Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - GraNet: A Multi-Level Graph Network for 6-DoF Grasp Pose Generation in
Cluttered Scenes [0.5755004576310334]
GraNetはグラフベースのグリップポーズ生成フレームワークで、ポイントクラウドシーンをマルチレベルグラフに変換する。
このパイプラインは, 散在するシーンにおけるグリップの空間分布を特徴付けることができ, 効果的グリップの速度が向上する。
提案手法は,大規模GraspNet-1Billionベンチマークにおいて,特に未確認オブジェクトの把握において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-06T08:36:29Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Deformable Capsules for Object Detection [3.702343116848637]
我々は,コンピュータビジョンにおいて重要な問題である物体検出に対処するために,新しいカプセルネットワーク,変形可能なカプセル(textitDeformCaps)を導入した。
提案手法は,本論文において,オブジェクト検出のためのカプセルネットワークを構築するために,効率よくスケールアップできることを実証する。
論文 参考訳(メタデータ) (2021-04-11T15:36:30Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Extended Target Tracking and Classification Using Neural Networks [1.2891210250935146]
最先端のETTアルゴリズムは、オブジェクトの動的挙動を追跡し、それらの形状を同時に学習することができる。
本研究では,1つの入力層,2つの隠れ層,および1つの出力層から構成されるナリーディープニューラルネットワークを用いて,それらの形状推定に関する動的オブジェクトを分類する。
論文 参考訳(メタデータ) (2020-02-13T12:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。