論文の概要: Improving Reinforcement Learning with Human Assistance: An Argument for
Human Subject Studies with HIPPO Gym
- arxiv url: http://arxiv.org/abs/2102.02639v1
- Date: Tue, 2 Feb 2021 12:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-06 01:13:17.671129
- Title: Improving Reinforcement Learning with Human Assistance: An Argument for
Human Subject Studies with HIPPO Gym
- Title(参考訳): ヒトアシスタンスによる強化学習の改善:HIPPOジムによる人身学習の議論
- Authors: Matthew E. Taylor, Nicholas Nissen, Yuan Wang, Neda Navidi
- Abstract要約: 強化学習(Reinforcement Learning、RL)は、ゲームプレイ、ロボティクス制御、その他のシーケンシャルな意思決定タスクのための一般的な機械学習パラダイムである。
本稿では,オープンソースRLフレームワークであるHuman Input Parsing Platform for Openai Gym(HIPPO Gym)を紹介します。
- 参考スコア(独自算出の注目度): 21.4215863934377
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Reinforcement learning (RL) is a popular machine learning paradigm for game
playing, robotics control, and other sequential decision tasks. However, RL
agents often have long learning times with high data requirements because they
begin by acting randomly. In order to better learn in complex tasks, this
article argues that an external teacher can often significantly help the RL
agent learn.
OpenAI Gym is a common framework for RL research, including a large number of
standard environments and agents, making RL research significantly more
accessible. This article introduces our new open-source RL framework, the Human
Input Parsing Platform for Openai Gym (HIPPO Gym), and the design decisions
that went into its creation. The goal of this platform is to facilitate
human-RL research, again lowering the bar so that more researchers can quickly
investigate different ways that human teachers could assist RL agents,
including learning from demonstrations, learning from feedback, or curriculum
learning.
- Abstract(参考訳): 強化学習(RL)は、ゲームプレイ、ロボット制御、およびその他の連続的な決定タスクのための一般的な機械学習パラダイムです。
しかし、rlエージェントはランダムに振る舞うことから、長い学習時間と高いデータ要求を持つことが多い。
複雑なタスクをよりよく学習するために、本稿では、外部の教師がRLエージェントの学習に大いに役立つことを論じる。
OpenAI Gymは、多数の標準環境やエージェントを含むRL研究の一般的なフレームワークであり、RL研究が大幅にアクセスしやすくなります。
この記事では、新しいオープンソースRLフレームワーク、Openai Gym(HIPPO Gym)のためのヒューマン入力解析プラットフォーム、およびその作成に行われた設計決定について紹介します。
このプラットフォームの目的は、人間-RLの研究を促進することであり、またバーを下げることで、より多くの研究者が人間の教師がRLエージェントを支援できる様々な方法を探ることができる。
関連論文リスト
- A Survey of Meta-Reinforcement Learning [83.95180398234238]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [31.9344946073358]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - JORLDY: a fully customizable open source framework for reinforcement
learning [3.1864456096282696]
強化学習(Reinforcement Learning, RL)は、学術分野と産業分野の両方で活発に研究されている。
JORLDYは、Pytorchで実装された20以上の広く使われているRLアルゴリズムを提供する。
JORLDYはOpenAIジム、Unity ML-Agents、Mujoco、Super Mario Bros、Procgenなど、複数のRL環境をサポートしている。
論文 参考訳(メタデータ) (2022-04-11T06:28:27Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - Accelerating Robotic Reinforcement Learning via Parameterized Action
Primitives [92.0321404272942]
強化学習は汎用ロボットシステムの構築に使用することができる。
しかし、ロボット工学の課題を解決するためにRLエージェントを訓練することは依然として困難である。
本研究では,ロボット行動プリミティブ(RAPS)のライブラリを手動で指定し,RLポリシーで学習した引数をパラメータ化する。
動作インターフェースへの簡単な変更は、学習効率とタスクパフォーマンスの両方を大幅に改善する。
論文 参考訳(メタデータ) (2021-10-28T17:59:30Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - How to Train Your Robot with Deep Reinforcement Learning; Lessons We've
Learned [111.06812202454364]
本稿では,ロボット深部RLのケーススタディをいくつか紹介する。
深部RLにおける一般的な課題と,それらの課題について論じる。
また、他の卓越した課題についても概説し、その多くが現実世界のロボティクスの設定に特有のものである。
論文 参考訳(メタデータ) (2021-02-04T22:09:28Z) - EasyRL: A Simple and Extensible Reinforcement Learning Framework [3.2173369911280023]
EasyRLは、ユーザがRLエージェントをトレーニングし、評価するためのインタラクティブなグラフィカルユーザインターフェースを提供する。
EasyRLは、単純な組み込みRLエージェントのトレーニングとテストのためのプログラミング知識を必要としない。
EasyRLはカスタムRLエージェントと環境もサポートしており、RLモデルの評価と比較において、RL研究者にとって非常に有益である。
論文 参考訳(メタデータ) (2020-08-04T17:02:56Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。