論文の概要: Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based
Approach
- arxiv url: http://arxiv.org/abs/2302.13423v1
- Date: Sun, 26 Feb 2023 22:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:07:25.680410
- Title: Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based
Approach
- Title(参考訳): マニピュレーションのためのSim-and-Real Reinforcement Learning: 合意に基づくアプローチ
- Authors: Wenxing Liu, Hanlin Niu, Wei Pan, Guido Herrmann, Joaquin Carrasco
- Abstract要約: マニピュレータのピック・アンド・プレイスタスクのための,コンセンサスに基づくCSAR(Sim-And-Real Deep reinforcement Learning)アルゴリズムを提案する。
我々はシミュレーターと実世界のエージェントを訓練し、シミュレートと実世界の両方の最適なポリシーを得る。
- 参考スコア(独自算出の注目度): 1.3873097365120954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sim-and-real training is a promising alternative to sim-to-real training for
robot manipulations. However, the current sim-and-real training is neither
efficient, i.e., slow convergence to the optimal policy, nor effective, i.e.,
sizeable real-world robot data. Given limited time and hardware budgets, the
performance of sim-and-real training is not satisfactory. In this paper, we
propose a Consensus-based Sim-And-Real deep reinforcement learning algorithm
(CSAR) for manipulator pick-and-place tasks, which shows comparable performance
in both sim-and-real worlds. In this algorithm, we train the agents in
simulators and the real world to get the optimal policies for both sim-and-real
worlds. We found two interesting phenomenons: (1) Best policy in simulation is
not the best for sim-and-real training. (2) The more simulation agents, the
better sim-and-real training. The experimental video is available at:
https://youtu.be/mcHJtNIsTEQ.
- Abstract(参考訳): Sim-and-realトレーニングは、ロボット操作のためのsim-to-realトレーニングに代わる有望な代替手段である。
しかし、現在のsim-and-realトレーニングは、最適なポリシーへの収束が遅く、また、実世界の大きさのロボットデータも効率的ではない。
時間とハードウェアの予算が限られているため、sim-and-realトレーニングのパフォーマンスは満足できない。
本稿では,シミュレーションと実世界で同等の性能を示すマニピュレータのピック・アンド・プレースタスクのためのコンセンサスベースsim・アンド・リアル深層強化学習アルゴリズム(csar)を提案する。
このアルゴリズムでは,シミュレーションと実世界のエージェントを訓練し,シミュレーションと実世界の双方の最適なポリシーを得る。
1)シミュレーションにおける最良のポリシーは、シム・アンド・リアルなトレーニングには最適ではない。
2) シミュレーションエージェントが多ければ多いほど,シム・アンド・リアルなトレーニングが向上する。
実験ビデオは、https://youtu.be/mchjtnisteqで見ることができる。
関連論文リスト
- Dynamics as Prompts: In-Context Learning for Sim-to-Real System Identifications [23.94013806312391]
そこで本研究では,テキスト内学習を用いてシミュレーション環境パラメータを動的に調整する手法を提案する。
オブジェクトスクーピングとテーブルエアホッケーという2つのタスクにまたがるアプローチを検証する。
提案手法は,ロボットの動的現実シナリオへの展開を推し進め,効率的かつスムーズなシステム識別を実現する。
論文 参考訳(メタデータ) (2024-10-27T07:13:38Z) - Overcoming the Sim-to-Real Gap: Leveraging Simulation to Learn to Explore for Real-World RL [25.991354823569033]
多くの制度において、直接シム2リアルトランスファーは失敗する可能性があるが、シミュレータを使って一連のエフェクト探索ポリシーを学習できることが示される。
特に、低ランクのMDPの設定においては、これらの探索政策と単純で実践的なアプローチが結合していることが示される。
これは、シミュレーション転送が直接sim2real転送が失敗する環境で強化学習において証明可能な利益をもたらすという最初の証拠である。
論文 参考訳(メタデータ) (2024-10-26T19:12:27Z) - DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - TRANSIC: Sim-to-Real Policy Transfer by Learning from Online Correction [25.36756787147331]
シミュレーションの学習と実世界への学習は、ジェネラリストロボットを可能にする可能性がある。
そこで本研究では,Human-in-the-loopフレームワークをベースとしたSIM-to-real転送を実現するためのデータ駆動型手法を提案する。
本手法は,家具組立などの複雑かつ接触に富んだ操作作業において,シミュレートから現実への伝達を成功させることができることを示す。
論文 参考訳(メタデータ) (2024-05-16T17:59:07Z) - Provable Sim-to-real Transfer in Continuous Domain with Partial
Observations [39.18274543757048]
シン・トゥ・リアル・トランスファー(英語版)は、シミュレーション環境でRLエージェントを訓練し、実世界で展開する。
実環境における最適政策と競合するシミュレートされた環境から、人気のある頑健な対人訓練アルゴリズムが、ポリシーを学習できることを示す。
論文 参考訳(メタデータ) (2022-10-27T16:37:52Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Real2Sim or Sim2Real: Robotics Visual Insertion using Deep Reinforcement
Learning and Real2Sim Policy Adaptation [8.992053371569678]
本研究では,最小限のインフラ要件を持つ純粋視覚強化学習ソリューションを用いて挿入課題を解決する。
我々はまた、ポリシー適応において、新しくて簡単なソリューションを提供する新しいsim2real戦略、Real2Simを提案する。
論文 参考訳(メタデータ) (2022-06-06T15:27:25Z) - Robot Learning from Randomized Simulations: A Review [59.992761565399185]
ディープラーニングがロボティクス研究のパラダイムシフトを引き起こし、大量のデータを必要とする方法が好まれている。
最先端のアプローチは、データ生成が高速かつ安価であるシミュレーションで学ぶ。
本稿では,ランダム化シミュレーションから学習する手法である「領域ランダム化」に焦点をあてる。
論文 参考訳(メタデータ) (2021-11-01T13:55:41Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。