論文の概要: Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration
- arxiv url: http://arxiv.org/abs/2308.02459v1
- Date: Fri, 4 Aug 2023 16:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:14:28.980775
- Title: Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration
- Title(参考訳): マルチモーダルカテゴリー探索による強化学習による非知覚的平面操作
- Authors: Juan Del Aguila Ferrandis, Jo\~ao Moura, Sethu Vijayakumar
- Abstract要約: 強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
- 参考スコア(独自算出の注目度): 8.343657309038285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developing robot controllers capable of achieving dexterous nonprehensile
manipulation, such as pushing an object on a table, is challenging. The
underactuated and hybrid-dynamics nature of the problem, further complicated by
the uncertainty resulting from the frictional interactions, requires
sophisticated control behaviors. Reinforcement Learning (RL) is a powerful
framework for developing such robot controllers. However, previous RL
literature addressing the nonprehensile pushing task achieves low accuracy,
non-smooth trajectories, and only simple motions, i.e. without rotation of the
manipulated object. We conjecture that previously used unimodal exploration
strategies fail to capture the inherent hybrid-dynamics of the task, arising
from the different possible contact interaction modes between the robot and the
object, such as sticking, sliding, and separation. In this work, we propose a
multimodal exploration approach through categorical distributions, which
enables us to train planar pushing RL policies for arbitrary starting and
target object poses, i.e. positions and orientations, and with improved
accuracy. We show that the learned policies are robust to external disturbances
and observation noise, and scale to tasks with multiple pushers. Furthermore,
we validate the transferability of the learned policies, trained entirely in
simulation, to a physical robot hardware using the KUKA iiwa robot arm. See our
supplemental video: https://youtu.be/vTdva1mgrk4.
- Abstract(参考訳): テーブル上にオブジェクトをプッシュするなど,器用な非包括操作を実現するロボットコントローラの開発は困難である。
摩擦相互作用によって生じる不確実性によってさらに複雑になる問題の過度かつハイブリッド力学的性質は、洗練された制御行動を必要とする。
強化学習(Reinforcement Learning, RL)は、ロボットコントローラを開発するための強力なフレームワークである。
しかし、非包括的プッシュタスクに対処する以前のRL文献は、低い精度、非滑らかな軌道、単純な動き、すなわち、操作対象の回転なしでしか達成できない。
従来はユニモーダル探索戦略では,ロボットと物体の接触操作モードの違い,例えば粘着,滑動,分離などによって生じるタスクの固有ハイブリッドダイナミクスを捉えられなかったと推測した。
本研究では,任意の開始対象と目標対象のポーズ,すなわち位置と向き,精度の向上のための平面プッシュRLポリシーの訓練を可能にする,分類分布によるマルチモーダル探索手法を提案する。
学習したポリシーは外乱や観測ノイズに頑健であり,複数のプッシャーを持つタスクにスケールできることを示した。
さらに,KUKA いわロボットアームを用いた物理ロボットハードウェアへの学習方針の伝達性についても検証した。
https://youtu.be/vtdva1mgrk4。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - Causal Policy Gradient for Whole-Body Mobile Manipulation [39.3461626518495]
我々は、典型的なMoMaタスクのポリシーをトレーニングする新しい強化学習フレームワークであるCausal MoMaを紹介する。
異なるタスクを対象とした3種類の模擬ロボットにおけるCausal MoMaの性能評価を行った。
論文 参考訳(メタデータ) (2023-05-04T23:23:47Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Learning to Grasp the Ungraspable with Emergent Extrinsic Dexterity [22.01389127145982]
単純なグリッパーは、外部環境を活用できれば、より複雑な操作タスクを解決できる。
これらの制約に対処するための強化学習に基づくシステムを開発する。
これは、様々な大きさ、密度、表面摩擦、形状を78%の成功率で一般化するシンプルなグリップで、動的で接触に富んだ動きを示す。
論文 参考訳(メタデータ) (2022-11-02T22:09:24Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。