論文の概要: Hierarchical Kickstarting for Skill Transfer in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2207.11584v1
- Date: Sat, 23 Jul 2022 19:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:37:20.948866
- Title: Hierarchical Kickstarting for Skill Transfer in Reinforcement Learning
- Title(参考訳): 強化学習におけるスキル伝達のための階層的キックスタート
- Authors: Michael Matthews, Mikayel Samvelyan, Jack Parker-Holder, Edward
Grefenstette, Tim Rockt\"aschel
- Abstract要約: 実践とホーミングのスキルは、人間の学習の基本的な要素だが、人工エージェントは、それらを実行するために特別に訓練されることはめったにない。
複雑な環境下での強化学習(RL)エージェントの訓練に、どのようにスキルを組み込むことができるかを検討する。
本実験により, 複雑な問題に対するエージェントの性能向上に寄与することが示唆された。
- 参考スコア(独自算出の注目度): 27.69559938165733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Practising and honing skills forms a fundamental component of how humans
learn, yet artificial agents are rarely specifically trained to perform them.
Instead, they are usually trained end-to-end, with the hope being that useful
skills will be implicitly learned in order to maximise discounted return of
some extrinsic reward function. In this paper, we investigate how skills can be
incorporated into the training of reinforcement learning (RL) agents in complex
environments with large state-action spaces and sparse rewards. To this end, we
created SkillHack, a benchmark of tasks and associated skills based on the game
of NetHack. We evaluate a number of baselines on this benchmark, as well as our
own novel skill-based method Hierarchical Kickstarting (HKS), which is shown to
outperform all other evaluated methods. Our experiments show that learning with
a prior knowledge of useful skills can significantly improve the performance of
agents on complex problems. We ultimately argue that utilising predefined
skills provides a useful inductive bias for RL problems, especially those with
large state-action spaces and sparse rewards.
- Abstract(参考訳): 実践とホーミングのスキルは人間の学習の根幹をなすが、人工エージェントはそれを実行するために特別に訓練されることはめったにない。
代わりに、それらは通常エンドツーエンドで訓練され、非本質的な報酬関数の還元を最大化するために有用なスキルが暗黙的に学習されることを期待している。
本稿では,大規模な状態行動空間とスパース報酬を有する複雑な環境下での強化学習エージェント(RL)の訓練に,いかにスキルを組み込むことができるかを検討する。
この目的のために、NetHackのゲームに基づいたタスクと関連するスキルのベンチマークであるSkillHackを作成しました。
我々は、このベンチマークのベースラインと、他の評価手法よりも優れていることを示す新しいスキルベース手法であるHierarchical Kickstarting (HKS)を評価した。
実験の結果, 有益スキルを事前に知識した学習は, 複雑な問題に対するエージェントのパフォーマンスを著しく向上させることが示された。
最終的に、事前定義されたスキルを活用することは、RL問題、特に大きな状態行動空間とスパース報酬を持つ問題に有用な帰納バイアスをもたらすと論じる。
関連論文リスト
- EXTRACT: Efficient Policy Learning by Extracting Transferable Robot Skills from Offline Data [22.471559284344462]
ほとんどの強化学習(RL)手法は、低レベルな行動空間上の最適ポリシーの学習に重点を置いている。
これらの手法はトレーニング環境ではうまく機能するが、新しいタスクに移行する柔軟性に欠ける。
我々は,従来の作業よりも短時間で新しいタスクを学習できる,スパースでイメージベースのロボット操作環境の実験を通じて実演する。
論文 参考訳(メタデータ) (2024-06-25T17:50:03Z) - When Do Skills Help Reinforcement Learning? A Theoretical Analysis of Temporal Abstractions [12.74839237274274]
スキルは強化学習(RL)のパフォーマンスを改善するための時間的抽象化である。
状態に対する解が圧縮性に乏しい環境では,RL性能の低下が理論的,実証的に証明される。
我々の発見は、自動スキル発見の研究をガイドし、RL実践者がいつ、どのようにスキルを使うかをよりよく決めるのに役立つことを願っている。
論文 参考訳(メタデータ) (2024-06-12T06:01:42Z) - Acquiring Diverse Skills using Curriculum Reinforcement Learning with Mixture of Experts [58.220879689376744]
強化学習(Reinforcement Learning, RL)は, 優れた政策獲得のための強力なアプローチである。
多様なスキルを学習するための textbfDiverse textbfSkill textbfLearning (Di-SkilL) を提案する。
本稿では,Di-SkilLが多種多様なパフォーマンススキルを学習できるロボットシミュレーションタスクについて述べる。
論文 参考訳(メタデータ) (2024-03-11T17:49:18Z) - Residual Skill Policies: Learning an Adaptable Skill-based Action Space
for Reinforcement Learning for Robotics [18.546688182454236]
スキルベース強化学習(RL)は、ロボット学習の加速に先行知識を活用するための有望な戦略として登場した。
本研究では,状態条件付き生成モデルを用いて,スキル空間における探索を高速化する手法を提案する。
我々は4つの困難な操作タスクにまたがってアプローチを検証する。
論文 参考訳(メタデータ) (2022-11-04T02:42:17Z) - Skill-Based Reinforcement Learning with Intrinsic Reward Matching [77.34726150561087]
Intrinsic Reward Matching (IRM) を提案する。
IRMにより、従来のスキル選択方法よりもはるかに効果的に事前訓練されたスキルを活用できる。
論文 参考訳(メタデータ) (2022-10-14T00:04:49Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - Accelerating Reinforcement Learning with Learned Skill Priors [20.268358783821487]
現代の強化学習アプローチは、すべてのタスクをゼロから学習する。
事前知識を活用する1つのアプローチは、事前タスクで学んだスキルを新しいタスクに移すことである。
学習したスキル事前は、リッチデータセットからの効果的なスキル伝達に不可欠であることを示す。
論文 参考訳(メタデータ) (2020-10-22T17:59:51Z) - Emergent Real-World Robotic Skills via Unsupervised Off-Policy
Reinforcement Learning [81.12201426668894]
報奨関数を使わずに多様なスキルを習得し,これらのスキルを下流のタスクに再利用する効率的な強化学習手法を開発した。
提案アルゴリズムは学習効率を大幅に向上させ,報酬のない実世界のトレーニングを実現する。
また,学習スキルは,目標指向ナビゲーションのためのモデル予測制御を用いて,追加のトレーニングを伴わずに構成可能であることも実証した。
論文 参考訳(メタデータ) (2020-04-27T17:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。