論文の概要: PEGG-Net: Background Agnostic Pixel-Wise Efficient Grasp Generation
Under Closed-Loop Conditions
- arxiv url: http://arxiv.org/abs/2203.16301v1
- Date: Wed, 30 Mar 2022 13:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:45:55.019396
- Title: PEGG-Net: Background Agnostic Pixel-Wise Efficient Grasp Generation
Under Closed-Loop Conditions
- Title(参考訳): PEGG-Net: 閉ループ条件下での背景非依存の画素幅効率よいグラフ生成
- Authors: Zhiyang Liu, Haozhe Wang, Lei Zhou, Huan Yin and Marcelo H Ang Jr
- Abstract要約: 我々は,PEGG-Netという,リアルタイムな,ピクセル単位のロボットグリップ生成ネットワークを設計する。
提案した軽量ネットワークは、本質的には、把握精度を低下させるバックグラウンドノイズを取り除くことを学習することができる。
実世界のテストでは、PEGG-Netは、動的環境における画像サイズ480x480を使用して、最大50Hzのクローズドループグリップをサポートすることができる。
- 参考スコア(独自算出の注目度): 8.483741387204791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performing closed-loop grasping at close proximity to an object requires a
large field of view. However, such images will inevitably bring large amounts
of unnecessary background information, especially when the camera is far away
from the target object at the initial stage, resulting in performance
degradation of the grasping network. To address this problem, we design a novel
PEGG-Net, a real-time, pixel-wise, robotic grasp generation network. The
proposed lightweight network is inherently able to learn to remove background
noise that can reduce grasping accuracy. Our proposed PEGG-Net achieves
improved state-of-the-art performance on both Cornell dataset (98.9%) and
Jacquard dataset (93.8%). In the real-world tests, PEGG-Net can support
closed-loop grasping at up to 50Hz using an image size of 480x480 in dynamic
environments. The trained model also generalizes to previously unseen objects
with complex geometrical shapes, household objects and workshop tools and
achieved an overall grasp success rate of 91.2% in our real-world grasping
experiments.
- Abstract(参考訳): 物体に近接してクローズドループ把持を行うには、広い視野が必要となる。
しかし、そのような画像は必然的に大量の不要な背景情報をもたらし、特に初期段階でカメラが対象物から遠く離れている場合、把持ネットワークの性能が低下する。
この問題に対処するため,我々はPEGG-Netという,リアルタイム,ピクセルワイド,ロボットグリップ生成ネットワークを設計した。
提案する軽量ネットワークは本質的に背景雑音の除去を学習でき、把持精度を低減できる。
提案したPEG-Netは,コーネルデータセット(98.9%)とジャカードデータセット(93.8%)の両方において,最先端のパフォーマンスの向上を実現する。
実世界のテストでは、pegg-netはダイナミックな環境で480x480の画像サイズを使用して、最大50hzのクローズドループ把握をサポートできる。
トレーニングされたモデルは、複雑な幾何学的形状の物体、家庭用物、ワークショップツールを一般化し、実世界の把握実験で全体の91.2%の成功率を達成した。
関連論文リスト
- ICGNet: A Unified Approach for Instance-Centric Grasping [44.75280244958735]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - GraNet: A Multi-Level Graph Network for 6-DoF Grasp Pose Generation in
Cluttered Scenes [0.5755004576310334]
GraNetはグラフベースのグリップポーズ生成フレームワークで、ポイントクラウドシーンをマルチレベルグラフに変換する。
このパイプラインは, 散在するシーンにおけるグリップの空間分布を特徴付けることができ, 効果的グリップの速度が向上する。
提案手法は,大規模GraspNet-1Billionベンチマークにおいて,特に未確認オブジェクトの把握において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-06T08:36:29Z) - Language-guided Robot Grasping: CLIP-based Referring Grasp Synthesis in
Clutter [14.489086924126253]
本研究は, 乱雑な場面において, 自然言語で参照される物体のつかみポーズを予測する, つかみ合成を参照する作業に焦点をあてる。
既存のアプローチでは、参照対象をまずセグメント化し、適切な把握を提案し、自然屋内シーンの複雑さを捉えないプライベートデータセットやシミュレータで評価される。
本稿では,CLIPの視覚的接地機能を利用して,画像とテキストのペアから直接合成を学習する新しいエンド・ツー・エンド・モデル(CROG)を提案する。
論文 参考訳(メタデータ) (2023-11-09T22:55:10Z) - Graphical Object-Centric Actor-Critic [55.2480439325792]
本稿では,アクター批判とモデルに基づくアプローチを組み合わせたオブジェクト中心強化学習アルゴリズムを提案する。
変換器エンコーダを用いてオブジェクト表現とグラフニューラルネットワークを抽出し、環境のダイナミクスを近似する。
本アルゴリズムは,現状のモデルフリーアクター批判アルゴリズムよりも複雑な3次元ロボット環境と構成構造をもつ2次元環境において,より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-26T06:05:12Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - Iterative Corresponding Geometry: Fusing Region and Depth for Highly
Efficient 3D Tracking of Textureless Objects [25.448657318818764]
ICGは領域と深度情報を融合させる新しい確率的トラッカーであり、物体形状のみを必要とする。
本手法では, 対応線を配置し, ポーズを反復的に洗練する。
YCB-Video、OPT、Choiデータセットの実験は、テクスチャ化されたオブジェクトであっても、我々のアプローチが現在の技術よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-03-10T12:30:50Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Factor Graph based 3D Multi-Object Tracking in Point Clouds [8.411514688735183]
明示的および固定的な代入に依存しない新しい最適化に基づくアプローチを提案する。
我々は、実世界のKITTI追跡データセットの性能を実証し、多くの最先端アルゴリズムよりも優れた結果を得る。
論文 参考訳(メタデータ) (2020-08-12T13:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。