論文の概要: Real2Sim or Sim2Real: Robotics Visual Insertion using Deep Reinforcement
Learning and Real2Sim Policy Adaptation
- arxiv url: http://arxiv.org/abs/2206.02679v1
- Date: Mon, 6 Jun 2022 15:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:55:20.963216
- Title: Real2Sim or Sim2Real: Robotics Visual Insertion using Deep Reinforcement
Learning and Real2Sim Policy Adaptation
- Title(参考訳): Real2SimまたはSim2Real:Deep Reinforcement LearningとReal2Simポリシー適応を用いたロボットビジュアルインサーション
- Authors: Yiwen Chen, Xue Li, Sheng Guo, Xian Yao Ng, Marcelo Ang
- Abstract要約: 本研究では,最小限のインフラ要件を持つ純粋視覚強化学習ソリューションを用いて挿入課題を解決する。
我々はまた、ポリシー適応において、新しくて簡単なソリューションを提供する新しいsim2real戦略、Real2Simを提案する。
- 参考スコア(独自算出の注目度): 8.992053371569678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning has shown a wide usage in robotics tasks, such as
insertion and grasping. However, without a practical sim2real strategy, the
policy trained in simulation could fail on the real task. There are also wide
researches in the sim2real strategies, but most of those methods rely on heavy
image rendering, domain randomization training, or tuning. In this work, we
solve the insertion task using a pure visual reinforcement learning solution
with minimum infrastructure requirement. We also propose a novel sim2real
strategy, Real2Sim, which provides a novel and easier solution in policy
adaptation. We discuss the advantage of Real2Sim compared with Sim2Real.
- Abstract(参考訳): 強化学習は挿入や把握といったロボット工学のタスクに広く使われている。
しかし、実用的なsim2現実戦略がなければ、シミュレーションで訓練されたポリシーは実際のタスクで失敗する可能性がある。
sim2real戦略にも幅広い研究があるが、これらの手法のほとんどは画像レンダリング、ドメインランダム化トレーニング、チューニングに依存している。
本研究では,最小限のインフラ要件を持つ純粋視覚強化学習ソリューションを用いて挿入課題を解決する。
我々はまた、ポリシー適応において、新しくて簡単なソリューションを提供する新しいsim2real戦略、Real2Simを提案する。
我々はReal2Simの利点をSim2Realと比較した。
関連論文リスト
- Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based
Approach [4.684126055213616]
マニピュレータのピック・アンド・プレイスタスクのための,コンセンサスに基づくCSAR(Sim-And-Real Deep reinforcement Learning)アルゴリズムを提案する。
我々はシミュレーターと実世界のエージェントを訓練し、シミュレートと実世界の両方の最適なポリシーを得る。
論文 参考訳(メタデータ) (2023-02-26T22:27:23Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Practical Imitation Learning in the Real World via Task Consistency Loss [18.827979446629296]
本稿では,機能レベルと行動予測レベルの両方において,シミュレートと実際のアライメントを促進する自己監督的損失を提案する。
我々は、シミュレートとリアルで遠隔操作されたデモンストレーションを16.2時間しか使っていない10のシーンで80%の成功を達成した。
論文 参考訳(メタデータ) (2022-02-03T21:43:06Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Sim2Real for Peg-Hole Insertion with Eye-in-Hand Camera [58.720142291102135]
シミュレーションを用いてペグホール挿入問題を学習し,学習したモデルを実ロボットに転送する。
本稿では,RGB-Dとジョイント情報(プロレセプション)のみを取り入れたトランスファーポリシーが,実際のロボットに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-05-29T05:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。