論文の概要: Hyperparameter Selection for Imitation Learning
- arxiv url: http://arxiv.org/abs/2105.12034v1
- Date: Tue, 25 May 2021 16:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 13:59:49.837988
- Title: Hyperparameter Selection for Imitation Learning
- Title(参考訳): 模倣学習のためのハイパーパラメータ選択
- Authors: Leonard Hussenot, Marcin Andrychowicz, Damien Vincent, Robert Dadashi,
Anton Raichuk, Lukasz Stafiniak, Sertan Girgin, Raphael Marinier, Nikola
Momchev, Sabela Ramos, Manu Orsini, Olivier Bachem, Matthieu Geist, Olivier
Pietquin
- Abstract要約: 連続制御の文脈における模倣学習アルゴリズムのハイパーパラメータチューニングの問題に対処する。
文献は、この報酬関数をHPの選択に利用できると考えているが、現実的な設定ではない。
我々は、外部報酬に対する可能性のあるプロキシをいくつか提案する。
その結果,模倣学習アルゴリズムはHPの選択に敏感である一方で,報酬関数のプロキシを通じて十分なHPを選択することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 39.89731531172814
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We address the issue of tuning hyperparameters (HPs) for imitation learning
algorithms in the context of continuous-control, when the underlying reward
function of the demonstrating expert cannot be observed at any time. The vast
literature in imitation learning mostly considers this reward function to be
available for HP selection, but this is not a realistic setting. Indeed, would
this reward function be available, it could then directly be used for policy
training and imitation would not be necessary. To tackle this mostly ignored
problem, we propose a number of possible proxies to the external reward. We
evaluate them in an extensive empirical study (more than 10'000 agents across 9
environments) and make practical recommendations for selecting HPs. Our results
show that while imitation learning algorithms are sensitive to HP choices, it
is often possible to select good enough HPs through a proxy to the reward
function.
- Abstract(参考訳): 本稿では,実演者の報酬関数が常に観察できない場合,継続制御の文脈において,模倣学習アルゴリズムのチューニングハイパーパラメータ(hps)の問題に対処する。
模倣学習の膨大な文献は、この報酬関数をHPの選択に利用できると考えているが、現実的な設定ではない。
実際、この報酬関数が利用可能であれば、政策トレーニングに直接使用することができ、模倣は必要ないだろう。
このほとんど無視された問題に対処するため、我々は外部報酬に対する多くのプロキシを提案する。
9つの環境にまたがる10万以上のエージェントによる広範な実証研究で評価し,hps選択のための実践的な推奨を行った。
その結果,模倣学習アルゴリズムはHPの選択に敏感であるが,報酬関数のプロキシを通じて十分なHPを選択することが可能であることが示唆された。
関連論文リスト
- Combining Automated Optimisation of Hyperparameters and Reward Shape [7.407166175374958]
本稿では,ハイパーパラメータと報酬関数を組み合わせた最適化手法を提案する。
近似ポリシー最適化とソフト・アクター・クリティカルを用いた広範囲な実験を行った。
以上の結果から,統合最適化は環境の半分のベースライン性能よりも有意に向上し,他の環境との競争性能も向上することが示された。
論文 参考訳(メタデータ) (2024-06-26T12:23:54Z) - Q-FOX Learning: Breaking Tradition in Reinforcement Learning [4.395397502990339]
強化学習(Reinforcement Learning, RL)は、人工知能(AI)のサブセットであり、エージェントは環境と対話することで最良の行動を学ぶ。
本稿では,Q-FOXと呼ばれる新しい自動HPチューニング手法を提案する。
Q-FOXは2つのOpenAI Gym環境制御タスク、カートポールと凍結湖で評価されている。
論文 参考訳(メタデータ) (2024-02-26T13:39:04Z) - Basis for Intentions: Efficient Inverse Reinforcement Learning using
Past Experience [89.30876995059168]
逆強化学習(IRL) - エージェントの報酬関数をその振る舞いを観察することから推測する。
本稿では、エージェントの報酬関数を観察することのできないIRLの問題に対処する。
論文 参考訳(メタデータ) (2022-08-09T17:29:49Z) - Hyperparameter Sensitivity in Deep Outlier Detection: Analysis and a
Scalable Hyper-Ensemble Solution [21.130842136324528]
我々は,Deep OD法のHP感度に関する最初の大規模解析を行った。
我々は,HP 構成の異なるモデルを組み立てる ROBOD と呼ばれる HP-robust でスケーラブルな深層アンサンブルモデルを設計する。
論文 参考訳(メタデータ) (2022-06-15T16:46:00Z) - Dynamics-Aware Comparison of Learned Reward Functions [21.159457412742356]
報酬関数を学習する能力は、現実世界にインテリジェントエージェントを配置する上で重要な役割を果たす。
リワード関数は通常、最適化されたポリシーの振舞いを考慮することで比較されるが、このアプローチは報酬関数の欠陥を最適化に使用するポリシー探索アルゴリズムのそれと混同する。
そこで我々はDARD(Dynamics-Aware Reward Distance)を提案する。
論文 参考訳(メタデータ) (2022-01-25T03:48:00Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Learning to Utilize Shaping Rewards: A New Approach of Reward Shaping [71.214923471669]
リワード整形は、ドメイン知識を強化学習(RL)に組み込む効果的な手法である
本稿では,所定の整形報酬関数を適応的に活用する問題を考察する。
スパース逆カートポールとMuJoCo環境の実験は、我々のアルゴリズムが有益な整形報酬を完全に活用できることを示している。
論文 参考訳(メタデータ) (2020-11-05T05:34:14Z) - Generative Inverse Deep Reinforcement Learning for Online Recommendation [62.09946317831129]
オンラインレコメンデーションのための新しい逆強化学習手法InvRecを提案する。
InvRecは、オンラインレコメンデーションのために、ユーザの行動から報酬関数を自動的に抽出する。
論文 参考訳(メタデータ) (2020-11-04T12:12:25Z) - Provably Efficient Reward-Agnostic Navigation with Linear Value
Iteration [143.43658264904863]
我々は、最小二乗値スタイルのアルゴリズムで一般的に使用される、より標準的なベルマン誤差の概念の下での反復が、ほぼ最適値関数の学習において強力なPAC保証を提供することを示す。
そこで本稿では,任意の(線形な)報酬関数に対して,最適に近いポリシーを学習するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-18T04:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。