論文の概要: Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation
- arxiv url: http://arxiv.org/abs/2007.13715v1
- Date: Mon, 27 Jul 2020 17:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:31:24.931748
- Title: Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation
- Title(参考訳): ポイントクラウドによる視覚ナビゲーションにおけるシミュレートと部分的可観測性のための強化学習
- Authors: Kenzo Lobos-Tsunekawa, Tatsuya Harada
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
- 参考スコア(独自算出の注目度): 62.22058066456076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning (RL), among other learning-based methods, represents
powerful tools to solve complex robotic tasks (e.g., actuation, manipulation,
navigation, etc.), with the need for real-world data to train these systems as
one of its most important limitations. The use of simulators is one way to
address this issue, yet knowledge acquired in simulations does not work
directly in the real-world, which is known as the sim-to-real transfer problem.
While previous works focus on the nature of the images used as observations
(e.g., textures and lighting), which has proven useful for a sim-to-sim
transfer, they neglect other concerns regarding said observations, such as
precise geometrical meanings, failing at robot-to-robot, and thus in
sim-to-real transfers. We propose a method that learns on an observation space
constructed by point clouds and environment randomization, generalizing among
robots and simulators to achieve sim-to-real, while also addressing partial
observability. We demonstrate the benefits of our methodology on the point goal
navigation task, in which our method proves to be highly unaffected to unseen
scenarios produced by robot-to-robot transfer, outperforms image-based
baselines in robot-randomized experiments, and presents high performances in
sim-to-sim conditions. Finally, we perform several experiments to validate the
sim-to-real transfer to a physical domestic robot platform, confirming the
out-of-the-box performance of our system.
- Abstract(参考訳): 強化学習(rl)は、複雑なロボットタスク(アクチベーション、操作、ナビゲーションなど)を解決するための強力なツールであり、これらのシステムを最も重要な制限の一つとして訓練するために現実世界のデータを必要とする。
シミュレータの使用はこの問題に対処する方法の1つであるが、シミュレーションで得られた知識は、sim-to-real転送問題として知られる現実世界では直接機能しない。
これまでの研究では、観察(例えばテクスチャや照明など)として使われる画像の性質に焦点が当てられ、simからsimへの転送に有用であることが証明されていたが、正確な幾何学的意味、ロボットからロボットへの失敗、そしてsimから現実への転送における他の懸念を無視している。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習し,ロボットとシミュレータの間で一般化してシミュレート・トゥ・リアルを実現する手法を提案する。
提案手法は,ロボットからロボットへの移動が生み出す未知のシナリオに強く影響しないことを実証し,画像ベースベースラインをロボットによるランダム化実験で上回り,sim-to-sim条件で高い性能を示す。
最後に,本システムの性能を確認するため,実環境ロボットプラットフォームへのsim-to-real転送を検証する実験を複数実施した。
関連論文リスト
- DrEureka: Language Model Guided Sim-To-Real Transfer [64.14314476811806]
シミュレーションで学んだ政策を現実世界に伝達することは、ロボットのスキルを大規模に獲得する上で有望な戦略である。
本稿では,Large Language Models (LLMs) を用いてシム・トゥ・リアル設計の自動化と高速化を行う。
本手法では,ヨガボールの上を歩行する四足歩行や四足歩行など,新しいロボットタスクを解くことができる。
論文 参考訳(メタデータ) (2024-06-04T04:53:05Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - Learning Sim-to-Real Dense Object Descriptors for Robotic Manipulation [4.7246285569677315]
我々はSim-to-Real Dense Object Nets(SRDONs)という,オブジェクトを適切な表現で理解するだけでなく,シミュレートされた実データをピクセル整合性を持った統一された特徴空間にマップする,高密度オブジェクト記述子を提案する。
本研究では,事前学習したSRDONが実世界の訓練をゼロにした各種ロボット作業において,見えない物体や見えない視覚環境の性能を著しく向上させる実験を行った。
論文 参考訳(メタデータ) (2023-04-18T02:28:55Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - Imitation Learning for Generalizable Self-driving Policy with
Sim-to-real Transfer [0.0]
本研究は,この課題を達成できる3つの模倣学習と2つのシミュレート・トゥ・リアルな手法を提案する。
これらのテクニックについて、それらのメリットとデメリットを強調するために、詳細な比較が提供されている。
論文 参考訳(メタデータ) (2022-06-22T01:36:14Z) - An in-depth experimental study of sensor usage and visual reasoning of
robots navigating in real environments [20.105395754497202]
実物的エージェントの性能と推論能力について検討し、シミュレーションで訓練し、2つの異なる物理的環境に展開する。
我々は,PointGoalタスクに対して,多種多様なタスクを事前訓練し,対象環境の模擬バージョンを微調整したエージェントが,sim2real転送をモデル化せずに競争性能に達することを示す。
論文 参考訳(メタデータ) (2021-11-29T16:27:29Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。