論文の概要: Practical Imitation Learning in the Real World via Task Consistency Loss
- arxiv url: http://arxiv.org/abs/2202.01862v1
- Date: Thu, 3 Feb 2022 21:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:09:36.469663
- Title: Practical Imitation Learning in the Real World via Task Consistency Loss
- Title(参考訳): タスク整合性損失による実世界の実践的模倣学習
- Authors: Mohi Khansari and Daniel Ho and Yuqing Du and Armando Fuentes and
Matthew Bennice and Nicolas Sievers and Sean Kirmani and Yunfei Bai and Eric
Jang
- Abstract要約: 本稿では,機能レベルと行動予測レベルの両方において,シミュレートと実際のアライメントを促進する自己監督的損失を提案する。
我々は、シミュレートとリアルで遠隔操作されたデモンストレーションを16.2時間しか使っていない10のシーンで80%の成功を達成した。
- 参考スコア(独自算出の注目度): 18.827979446629296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in visual end-to-end learning for robotics has shown the promise
of imitation learning across a variety of tasks. Such approaches are expensive
both because they require large amounts of real world training demonstrations
and because identifying the best model to deploy in the real world requires
time-consuming real-world evaluations. These challenges can be mitigated by
simulation: by supplementing real world data with simulated demonstrations and
using simulated evaluations to identify high performing policies. However, this
introduces the well-known "reality gap" problem, where simulator inaccuracies
decorrelate performance in simulation from that of reality. In this paper, we
build on top of prior work in GAN-based domain adaptation and introduce the
notion of a Task Consistency Loss (TCL), a self-supervised loss that encourages
sim and real alignment both at the feature and action-prediction levels. We
demonstrate the effectiveness of our approach by teaching a mobile manipulator
to autonomously approach a door, turn the handle to open the door, and enter
the room. The policy performs control from RGB and depth images and generalizes
to doors not encountered in training data. We achieve 80% success across ten
seen and unseen scenes using only ~16.2 hours of teleoperated demonstrations in
sim and real. To the best of our knowledge, this is the first work to tackle
latched door opening from a purely end-to-end learning approach, where the task
of navigation and manipulation are jointly modeled by a single neural network.
- Abstract(参考訳): ロボット工学における視覚的エンドツーエンド学習の最近の研究は、様々なタスクにおける模倣学習の約束を示している。
このようなアプローチは、大量の実世界のトレーニングデモを必要とすることと、現実世界にデプロイする最良のモデルを特定するには、実世界の評価に時間を要するため、高価である。
これらの課題はシミュレーションによって軽減することができる: 実世界のデータをシミュレーションされたデモで補完し、高いパフォーマンスポリシーを特定するためにシミュレーション評価を使用すること。
しかし、これはよく知られた「現実のギャップ」の問題を導入し、シミュレータの不正確さが現実とシミュレーションのパフォーマンスを分離する。
本稿では,GANに基づくドメイン適応における先行作業の上に構築し,機能レベルと行動予測レベルの両方においてシミュレーションと実際のアライメントを促進する自己監督型損失であるタスク一貫性損失(TCL)の概念を導入する。
移動マニピュレータにドアに自律的に近づき、ハンドルを回してドアを開け、部屋に入るように教えることで、我々のアプローチの有効性を実証する。
このポリシーはRGBと深度画像から制御を行い、トレーニングデータに遭遇しないドアに一般化する。
我々は、シミュレートとリアルで遠隔操作されたデモをわずか16.2時間で10のシーンで80%の成功を達成した。
私たちの知る限りでは、ナビゲーションと操作のタスクは単一のニューラルネットワークによって共同でモデル化される純粋にエンドツーエンドの学習アプローチから、ラッチされたドアの開口に対処する最初の試みである。
関連論文リスト
- Sim-to-Real Deep Reinforcement Learning with Manipulators for
Pick-and-place [1.7478203318226313]
深層強化学習モデルをシミュレーションから実世界に移す場合、その性能は満足できない。
本稿では,ロボットが物体を効果的に選択・配置できる自己教師型視覚ベースDRL法を提案する。
論文 参考訳(メタデータ) (2023-09-17T11:51:18Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - RL-CycleGAN: Reinforcement Learning Aware Simulation-To-Real [74.45688231140689]
本稿では、画像翻訳におけるRL-scene整合性損失を導入し、画像に関連付けられたQ値に対して変換操作が不変であることを保証する。
RL-CycleGANは実世界のシミュレーションから実世界への変換による強化学習のための新しい手法である。
論文 参考訳(メタデータ) (2020-06-16T08:58:07Z) - Simulation-based reinforcement learning for real-world autonomous driving [9.773015744446067]
実物大の車両を制御する駆動システムを実現するために,シミュレーションにおいて強化学習を用いる。
駆動ポリシは、単一のカメラからのRGBイメージと、それらのセマンティックセグメンテーションを入力として取り込む。
主に合成データを使用し、ラベル付き実世界のデータはセグメンテーションネットワークのトレーニングにのみ現れる。
論文 参考訳(メタデータ) (2019-11-29T00:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。