論文の概要: Deep Reinforcement Learning for Robotic Pushing and Picking in Cluttered
Environment
- arxiv url: http://arxiv.org/abs/2302.10717v1
- Date: Tue, 21 Feb 2023 15:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 14:43:08.904594
- Title: Deep Reinforcement Learning for Robotic Pushing and Picking in Cluttered
Environment
- Title(参考訳): クラッタ環境におけるロボットのプッシュ・ピッキングのための深部強化学習
- Authors: Yuhong Deng, Xiaofeng Guo, Yixuan Wei, Kai Lu, Bin Fang, Di Guo,
Huaping Liu and Fuchun Sun
- Abstract要約: 物体を安定的につかむために、吸引カップとグッパーとからなる複合ロボットハンドを設計する。
我々は、この割高マップを用いて、吸引カップの画素単位の昇華点候補を提供する。
ロボットハンドを誘導する深層Qネットワークを用いて、生成した空きマップが把握に適するまで、環境を積極的に探索する。
- 参考スコア(独自算出の注目度): 37.65730994150607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, a novel robotic grasping system is established to
automatically pick up objects in cluttered scenes. A composite robotic hand
composed of a suction cup and a gripper is designed for grasping the object
stably. The suction cup is used for lifting the object from the clutter first
and the gripper for grasping the object accordingly. We utilize the affordance
map to provide pixel-wise lifting point candidates for the suction cup. To
obtain a good affordance map, the active exploration mechanism is introduced to
the system. An effective metric is designed to calculate the reward for the
current affordance map, and a deep Q-Network (DQN) is employed to guide the
robotic hand to actively explore the environment until the generated affordance
map is suitable for grasping. Experimental results have demonstrated that the
proposed robotic grasping system is able to greatly increase the success rate
of the robotic grasping in cluttered scenes.
- Abstract(参考訳): そこで本稿では,ロボットによる新しい把持システムを構築し,乱雑な場面で自動的に物体を拾い上げる。
物体を安定的につかむために、吸引カップとグッパーとからなる複合ロボットハンドを設計する。
吸引カップは、まずクラッタから物体を持ち上げるために使用され、それに応じて物体をつかむグリッパーが使用される。
我々は、この割高マップを用いて、吸引カップの画素単位の昇華点候補を提供する。
優れたアベイランスマップを得るには、システムにアクティブな探索機構を導入する。
有効な指標は、現在の空き地図に対する報酬を計算するために設計され、ロボットハンドを誘導して、生成された空き地図が把握に適するまで、環境を積極的に探索するディープQネットワーク(DQN)が使用される。
実験結果から,提案するロボットグルーピングシステムは,散在シーンにおけるロボットグルーピングの成功率を大幅に向上させることができることが示された。
関連論文リスト
- Object and Contact Point Tracking in Demonstrations Using 3D Gaussian Splatting [17.03927416536173]
本稿では,インタラクティブ・イミテーション・ラーニング(Interactive Imitation Learning, IIL)の手法を提案する。
このアプローチは現在のIILシステムを拡張し、ロボットにオブジェクトとの対話方法、特にドアや引き出しのような複雑な操作方法に関する詳細な知識を提供する。
論文 参考訳(メタデータ) (2024-11-05T23:28:57Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Gaze-based dual resolution deep imitation learning for high-precision
dexterous robot manipulation [4.717749411286867]
針のスレッディングのような高精度な操作作業は困難である。
人間の視線に基づく双対分解能ビジュモータ制御システムにインスパイアされた、深層模倣学習に基づく手法は、ニードルスレッディングタスクを解くことができる。
論文 参考訳(メタデータ) (2021-02-02T04:11:09Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - Coinbot: Intelligent Robotic Coin Bag Manipulation Using Deep
Reinforcement Learning And Machine Teaching [47.187609203210705]
トロリーからのコインバッグの降ろしを自動化するために,協調ロボットの制御作業に深層強化学習と機械学習技術を適用した。
操作中に質量の中心が変化するコインバッグのような柔軟な材料をつかむタスク固有のプロセスを実現するため、シミュレーションで特別なグリップが実装され、物理ハードウェアで設計された。
ロボットエンドエフェクタの最適構成を提案するため, 深層強化学習に基づくインテリジェントな手法が提案されている。
論文 参考訳(メタデータ) (2020-12-02T17:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。