論文の概要: A Pushing-Grasping Collaborative Method Based on Deep Q-Network
Algorithm in Dual Perspectives
- arxiv url: http://arxiv.org/abs/2101.00829v1
- Date: Mon, 4 Jan 2021 08:40:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:52:29.034917
- Title: A Pushing-Grasping Collaborative Method Based on Deep Q-Network
Algorithm in Dual Perspectives
- Title(参考訳): 深部Q-Networkアルゴリズムによる2視点からのプッシュグレーピング協調手法
- Authors: Peng Gang, Liao Jinhu, Guan Shangbin
- Abstract要約: 本稿では,デュアル・パースペクティブにおける深層qネットワークに基づく新しいプッシュ・グラッピング協調法を提案する。
本手法は,RGB-Dカメラを用いた深層Qネットワークアルゴリズムを用いて,物体のRGB画像と点群の情報を2つの視点から取得する。
提案手法は迅速に収束し,未構造化シーンにおける物体の把握の成功率は83.5%に達すると結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming at the traditional grasping method for manipulators based on 2D
camera, when faced with the scene of gathering or covering, it can hardly
perform well in unstructured scenes that appear as gathering and covering, for
the reason that can't recognize objects accurately in cluster scenes from a
single perspective and the manipulators can't make the environment better for
grasping. In this case, a novel method of pushing-grasping collaborative based
on the deep Q-network in dual perspectives is proposed in this paper. This
method adopts an improved deep Q network algorithm, with an RGB-D camera to
obtain the information of objects' RGB images and point clouds from two
perspectives, and combines the pushing and grasping actions so that the trained
manipulator can make the scenes better for grasping so that it can perform well
in more complicated grasping scenes. What's more, we improved the reward
function of the deep Q-network and propose the piecewise reward function to
speed up the convergence of the deep Q-network. We trained different models and
tried different methods in the V-REP simulation environment, and it concluded
that the method proposed in this paper converges quickly and the success rate
of grasping objects in unstructured scenes raises up to 83.5%. Besides, it
shows the generalization ability and well performance when novel objects appear
in the scenes that the manipulator has never grasped before.
- Abstract(参考訳): 2dカメラを用いた従来のマニピュレータの把持法をめざすと、集合や被覆の場面に直面すると、集合や被覆として現れる非構造的なシーンでは、単一の視点からクラスターシーンにおいてオブジェクトを正確に認識できず、マニピュレータが環境をよりよく把握することができないため、うまく動作できない。
本稿では,デュアル・パースペクティブにおける深層qネットワークに基づく新しいプッシュ・グラッピング協調手法を提案する。
本手法では,2視点からオブジェクトのRGB画像と点雲の情報を得るためのRGB-Dカメラを備えた改良されたディープQネットワークアルゴリズムを採用し,トレーニングされたマニピュレータがより複雑なグルーピングシーンで良好なシーンを把握できるように,プッシュとグルーピング動作を組み合わせた。
さらに、深部Qネットワークの報酬関数を改善し、深部Qネットワークの収束を高速化する分別報酬関数を提案する。
我々は,V-REPシミュレーション環境において,異なるモデルを訓練し,異なる手法を試行し,提案手法は迅速に収束し,未構造化シーンにおける物体の把握の成功率は83.5%に達すると結論付けた。
また、マニピュレータが一度も把握したことのない場面に新しい物体が現れるときの一般化能力や性能を示す。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Single-View View Synthesis in the Wild with Learned Adaptive Multiplane
Images [15.614631883233898]
既存の手法では, 単分子深度推定と層状深度表現による色塗布による有望な結果が示されている。
マルチプレーン画像(MPI)表現に基づく新しい手法を提案する。
合成データと実データの両方の実験により、我々のトレーニングされたモデルは驚くほどうまく機能し、最先端の結果が得られます。
論文 参考訳(メタデータ) (2022-05-24T02:57:16Z) - Complex Scene Image Editing by Scene Graph Comprehension [17.72638225034884]
シーングラフ(SGC-Net)による複雑なシーン画像編集を実現するための2段階手法を提案する。
第1段階では,シーングラフを用いた関心領域予測ネットワークを訓練し,対象物体の位置を推定する。
第2段階では条件付き拡散モデルを用いて、RoI予測に基づいて画像を編集する。
論文 参考訳(メタデータ) (2022-03-24T05:12:54Z) - Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。