論文の概要: PI-QT-Opt: Predictive Information Improves Multi-Task Robotic
Reinforcement Learning at Scale
- arxiv url: http://arxiv.org/abs/2210.08217v1
- Date: Sat, 15 Oct 2022 07:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:08:15.171448
- Title: PI-QT-Opt: Predictive Information Improves Multi-Task Robotic
Reinforcement Learning at Scale
- Title(参考訳): pi-qt-opt: 予測情報によるマルチタスクロボット強化学習の大規模化
- Authors: Kuang-Huei Lee, Ted Xiao, Adrian Li, Paul Wohlhart, Ian Fischer, Yao
Lu
- Abstract要約: 予測情報QT-Optは、予測情報の表現を学習し、シミュレーションおよび実世界における最大297個の視覚に基づくロボット操作タスクを解決する。
予測情報のモデリングはトレーニング作業の成功率を大幅に向上させ,未知の新規タスクへのゼロショット転送を改善することを実証する。
- 参考スコア(独自算出の注目度): 14.444439310266873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The predictive information, the mutual information between the past and
future, has been shown to be a useful representation learning auxiliary loss
for training reinforcement learning agents, as the ability to model what will
happen next is critical to success on many control tasks. While existing
studies are largely restricted to training specialist agents on single-task
settings in simulation, in this work, we study modeling the predictive
information for robotic agents and its importance for general-purpose agents
that are trained to master a large repertoire of diverse skills from large
amounts of data. Specifically, we introduce Predictive Information QT-Opt
(PI-QT-Opt), a QT-Opt agent augmented with an auxiliary loss that learns
representations of the predictive information to solve up to 297 vision-based
robot manipulation tasks in simulation and the real world with a single set of
parameters. We demonstrate that modeling the predictive information
significantly improves success rates on the training tasks and leads to better
zero-shot transfer to unseen novel tasks. Finally, we evaluate PI-QT-Opt on
real robots, achieving substantial and consistent improvement over QT-Opt in
multiple experimental settings of varying environments, skills, and multi-task
configurations.
- Abstract(参考訳): 過去と未来の間の相互情報である予測情報は、トレーニング強化学習エージェントの補助的損失として有用であることが示されており、次に何が起こるかをモデル化する能力は多くの制御タスクの成功に不可欠である。
そこで本研究では,ロボットエージェントの予測情報をモデル化し,大量のデータから多種多様なスキルのレパートリーを習得する訓練を行う汎用エージェントの重要性について検討する。
具体的には、予測情報QT-Opt(PI-QT-Opt)を補助的損失で強化したQT-Optエージェントを導入し、予測情報の表現を学習し、シミュレーションにおける最大297個の視覚ベースのロボット操作タスクを1組のパラメータで解決する。
予測情報のモデル化はトレーニング作業の成功率を大幅に向上させ,未知の新規タスクへのゼロショット転送を改善することを実証する。
最後に,pi-qt-optを実ロボット上で評価し,様々な環境,スキル,マルチタスク構成の複数の実験環境において,qt-optに対して有意かつ一貫した改善を実現する。
関連論文リスト
- STRAP: Robot Sub-Trajectory Retrieval for Augmented Policy Learning [8.860366821983211]
STRAPは、トレーニング済みの視覚基盤モデルと動的時間ワープを利用して、大規模なトレーニングコーパスからトラジェクトリのサブシーケンスを堅牢に検索する技術である。
本研究では、事前学習された視覚基盤モデルと動的時間ワープを活用して、大規模学習コーパスからのトラジェクトリのサブシーケンスをロバストに検索するSTRAPを提案する。
論文 参考訳(メタデータ) (2024-12-19T18:54:06Z) - Robot Fine-Tuning Made Easy: Pre-Training Rewards and Policies for
Autonomous Real-World Reinforcement Learning [58.3994826169858]
ロボット強化学習のためのリセット不要な微調整システムであるRoboFuMEを紹介する。
我々の洞察は、オフラインの強化学習技術を利用して、事前訓練されたポリシーの効率的なオンライン微調整を確保することである。
提案手法では,既存のロボットデータセットからのデータを組み込んで,目標タスクを3時間以内の自律現実体験で改善することができる。
論文 参考訳(メタデータ) (2023-10-23T17:50:08Z) - Pre-Training for Robots: Offline RL Enables Learning New Tasks from a
Handful of Trials [97.95400776235736]
新しいタスクを効果的に学習しようとするオフラインRLに基づくフレームワークを提案する。
既存のロボットデータセットの事前トレーニングと、新しいタスクの迅速な微調整と、最大10のデモを組み合わせたものだ。
我々の知る限り、PTRは本物のWidowXロボットで新しいドメインで新しいタスクを学習する最初のRL手法である。
論文 参考訳(メタデータ) (2022-10-11T06:30:53Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。