論文の概要: Depth-aware Object Segmentation and Grasp Detection for Robotic Picking
Tasks
- arxiv url: http://arxiv.org/abs/2111.11114v1
- Date: Mon, 22 Nov 2021 11:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 17:23:55.997531
- Title: Depth-aware Object Segmentation and Grasp Detection for Robotic Picking
Tasks
- Title(参考訳): ロボットピッキングタスクにおける深度認識対象セグメンテーションと把持検出
- Authors: Stefan Ainetter, Christoph B\"ohm, Rohit Dhakate, Stephan Weiss,
Friedrich Fraundorfer
- Abstract要約: 本稿では,ロボットピッキングタスクの協調型クラス非依存オブジェクト分割と把握検出のための新しいディープニューラルネットワークアーキテクチャを提案する。
本稿では,ポイント提案に基づくオブジェクトインスタンスセグメンテーションの精度を高める手法であるDeep-Aware Coordinate Convolution(CoordConv)を紹介する。
我々は,Sil'eane と OCID_grasp という,難易度の高いロボットピッキングデータセットに対して,把握検出とインスタンスセグメンテーションの精度を評価する。
- 参考スコア(独自算出の注目度): 13.337131101813934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel deep neural network architecture for joint
class-agnostic object segmentation and grasp detection for robotic picking
tasks using a parallel-plate gripper. We introduce depth-aware Coordinate
Convolution (CoordConv), a method to increase accuracy for point proposal based
object instance segmentation in complex scenes without adding any additional
network parameters or computation complexity. Depth-aware CoordConv uses depth
data to extract prior information about the location of an object to achieve
highly accurate object instance segmentation. These resulting segmentation
masks, combined with predicted grasp candidates, lead to a complete scene
description for grasping using a parallel-plate gripper. We evaluate the
accuracy of grasp detection and instance segmentation on challenging robotic
picking datasets, namely Sil\'eane and OCID_grasp, and show the benefit of
joint grasp detection and segmentation on a real-world robotic picking task.
- Abstract(参考訳): 本稿では,並列平板グリッパーを用いたロボットピッキングタスクのための,クラス非依存オブジェクトセグメンテーションと把持検出のための深層ニューラルネットワークアーキテクチャを提案する。
ネットワークパラメータや計算複雑性を追加することなく、複雑なシーンにおけるポイント提案に基づくオブジェクトインスタンスセグメンテーションの精度を高める手法であるDeep-Aware Coordinate Convolution(CoordConv)を導入する。
Depth-aware CoordConvは、深度データを使用して、オブジェクトの位置に関する事前情報を抽出し、高精度なオブジェクトインスタンスセグメンテーションを実現する。
これらの結果として得られたセグメンテーションマスクは、予測された把持候補と組み合わせられ、パラレルプレートグリッパーを用いた把持のための完全なシーン記述に繋がる。
ロボットピッキングデータセットであるsil\'eaneおよびocid_graspにおける把持検出とインスタンスセグメンテーションの精度を評価し,実世界のロボットピッキングタスクにおける関節把持検出とセグメンテーションの利点を示す。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - AGILE: Approach-based Grasp Inference Learned from Element Decomposition [2.812395851874055]
人間は手動の位置情報を考慮して物体を把握できる。
本研究は、ロボットマニピュレータが物体を最も最適な方法で把握し、同じことを学べるようにする方法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:47:08Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - PWISeg: Point-based Weakly-supervised Instance Segmentation for Surgical
Instruments [27.89003436883652]
我々はPWISeg (Point-based Weakly-supervised Instance) という,弱制御型手術器具セグメンテーション手法を提案する。
PWISegは、特徴点とバウンディングボックスの関係をモデル化するために、ポイント・ツー・ボックスとポイント・ツー・マスクのブランチを備えたFCNベースのアーキテクチャを採用している。
そこで本研究では,キー・ツー・マスク・ブランチを駆動し,より正確なセグメンテーション予測を生成するキー・ピクセル・アソシエーション・ロスとキー・ピクセル・アソシエーション・ロスを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:48:29Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - End-to-end Trainable Deep Neural Network for Robotic Grasp Detection and
Semantic Segmentation from RGB [13.546424272544805]
パラレルプレートグリップに適したグリップ検出のための高品質なCNNアーキテクチャを提案する。
提案するネットワークは,コーネルとジャカードという2つの一般的な把握データセットに対して,最先端の精度を提供する。
論文 参考訳(メタデータ) (2021-07-12T09:45:13Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - Weakly Supervised Instance Segmentation by Deep Community Learning [39.18749732409763]
複数のタスクによる深層コミュニティ学習に基づく弱教師付きインスタンスセグメンテーションアルゴリズムを提案する。
我々は、統合されたディープニューラルネットワークアーキテクチャを設計することでこの問題に対処する。
提案アルゴリズムは、弱教師付き設定における最先端性能を実現する。
論文 参考訳(メタデータ) (2020-01-30T08:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。