論文の概要: AGILE: Approach-based Grasp Inference Learned from Element Decomposition
- arxiv url: http://arxiv.org/abs/2402.01303v1
- Date: Fri, 2 Feb 2024 10:47:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 15:52:05.133685
- Title: AGILE: Approach-based Grasp Inference Learned from Element Decomposition
- Title(参考訳): AGILE: 要素分解から学んだアプローチベースのGrasp推論
- Authors: MohammadHossein Koosheshi, Hamed Hosseini, Mehdi Tale Masouleh, Ahmad
Kalhor, Mohammad Reza Hairi Yazdi
- Abstract要約: 人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
- 参考スコア(独自算出の注目度): 2.812395851874055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans, this species expert in grasp detection, can grasp objects by taking
into account hand-object positioning information. This work proposes a method
to enable a robot manipulator to learn the same, grasping objects in the most
optimal way according to how the gripper has approached the object. Built on
deep learning, the proposed method consists of two main stages. In order to
generalize the network on unseen objects, the proposed Approach-based Grasping
Inference involves an element decomposition stage to split an object into its
main parts, each with one or more annotated grasps for a particular approach of
the gripper. Subsequently, a grasp detection network utilizes the decomposed
elements by Mask R-CNN and the information on the approach of the gripper in
order to detect the element the gripper has approached and the most optimal
grasp. In order to train the networks, the study introduces a robotic grasping
dataset collected in the Coppeliasim simulation environment. The dataset
involves 10 different objects with annotated element decomposition masks and
grasp rectangles. The proposed method acquires a 90% grasp success rate on seen
objects and 78% on unseen objects in the Coppeliasim simulation environment.
Lastly, simulation-to-reality domain adaptation is performed by applying
transformations on the training set collected in simulation and augmenting the
dataset, which results in a 70% physical grasp success performance using a
Delta parallel robot and a 2 -fingered gripper.
- Abstract(参考訳): この把持検出の専門家であるヒトは、手対象の位置情報を考慮して物体を把握できる。
本研究は,ロボットマニピュレータが物体に対するグリッパーの接近状況に応じて,物体を最も最適な方法で把握し,同一の学習を可能にする手法を提案する。
深層学習を基盤として,提案手法は2つの主要段階からなる。
ネットワークを未知のオブジェクトに一般化するために、提案するアプローチに基づく把持推論は、グリッパーの特定のアプローチに対して1つ以上の注釈付き把持を持つオブジェクトをその主部分に分割する要素分解段階を含む。
その後、把握検出ネットワークは、マスクr−cnnによる分解された要素と、グリッパーの接近に関する情報を利用して、グリッパーが接近した要素と最も最適な把持を検出する。
ネットワークをトレーニングするために,coppeliasimシミュレーション環境で収集したロボット把持データセットを紹介する。
データセットは10の異なるオブジェクトを含み、注釈付き要素分解マスクと矩形を把握している。
提案手法は,コッペリアシムシミュレーション環境において,被写体に対する90%の把握成功率と見えない被写体に対する78%を取得する。
最後に、シミュレーションから現実への領域適応は、シミュレーションで収集したトレーニングセットに変換を適用し、データセットを拡大することにより、デルタパラレルロボットと2本指グリップパーを用いて、70%の物理的把握成功性能が得られる。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Sim2Real Bilevel Adaptation for Object Surface Classification using Vision-Based Tactile Sensors [14.835051543002164]
我々は、物体表面を分類するための視覚ベースの触覚センサの分野におけるSim2Realギャップを橋渡しするために拡散モデルを訓練する。
我々は,YCBモデルセットから物体表面を均一にサンプリングして画像を生成するシミュレータを用いた。
これらのシミュレートされたイメージは、拡散モデルを使用して実際のドメインに変換され、自動的に分類器を訓練するためにラベル付けされる。
論文 参考訳(メタデータ) (2023-11-02T16:37:27Z) - Self-Supervised Interactive Object Segmentation Through a
Singulation-and-Grasping Approach [9.029861710944704]
本稿では,新しいオブジェクトと対話し,各オブジェクトのトレーニングラベルを収集するロボット学習手法を提案する。
Singulation-and-Grasping(SaG)ポリシは、エンドツーエンドの強化学習を通じてトレーニングされる。
本システムは,シミュレートされた散文シーンにおいて,70%の歌唱成功率を達成する。
論文 参考訳(メタデータ) (2022-07-19T15:01:36Z) - Masked Transformer for Neighhourhood-aware Click-Through Rate Prediction [74.52904110197004]
本稿では,近隣相互作用に基づくCTR予測を提案し,そのタスクを異種情報ネットワーク(HIN)設定に組み込む。
周辺地域の表現を高めるために,ノード間のトポロジカルな相互作用を4種類検討する。
本研究では,2つの実世界のデータセットに関する総合的な実験を行い,提案手法が最先端のCTRモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:44:23Z) - Depth-aware Object Segmentation and Grasp Detection for Robotic Picking
Tasks [13.337131101813934]
本稿では,ロボットピッキングタスクの協調型クラス非依存オブジェクト分割と把握検出のための新しいディープニューラルネットワークアーキテクチャを提案する。
本稿では,ポイント提案に基づくオブジェクトインスタンスセグメンテーションの精度を高める手法であるDeep-Aware Coordinate Convolution(CoordConv)を紹介する。
我々は,Sil'eane と OCID_grasp という,難易度の高いロボットピッキングデータセットに対して,把握検出とインスタンスセグメンテーションの精度を評価する。
論文 参考訳(メタデータ) (2021-11-22T11:06:33Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。