論文の概要: Comparing Reinforcement Learning and Human Learning using the Game of
Hidden Rules
- arxiv url: http://arxiv.org/abs/2306.17766v1
- Date: Fri, 30 Jun 2023 16:18:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 11:45:56.454755
- Title: Comparing Reinforcement Learning and Human Learning using the Game of
Hidden Rules
- Title(参考訳): 隠れルールゲームを用いた強化学習と人間学習の比較
- Authors: Eric Pulick, Vladimir Menkov, Yonatan Mintz, Paul Kantor, Vicki Bier
- Abstract要約: これらのシステムの設計は、ヒューマンラーニング(HL)と強化ラーニング(RL)の両方のタスク指向の理解に依存している。
本稿では,HLとRLに対するタスク構造の影響の厳密な研究を支援するための学習環境を提案する。
本研究では,人間とRLアルゴリズムの性能差を示すタスク構造における実例実験を通して,そのような研究のための環境の有用性を実証する。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable real-world deployment of reinforcement learning (RL) methods
requires a nuanced understanding of their strengths and weaknesses and how they
compare to those of humans. Human-machine systems are becoming more prevalent
and the design of these systems relies on a task-oriented understanding of both
human learning (HL) and RL. Thus, an important line of research is
characterizing how the structure of a learning task affects learning
performance. While increasingly complex benchmark environments have led to
improved RL capabilities, such environments are difficult to use for the
dedicated study of task structure. To address this challenge we present a
learning environment built to support rigorous study of the impact of task
structure on HL and RL. We demonstrate the environment's utility for such study
through example experiments in task structure that show performance differences
between humans and RL algorithms.
- Abstract(参考訳): 強化学習(rl)メソッドの信頼性の高い現実世界での展開には、その強みと弱みと、それらが人間のものとどのように異なるかを理解する必要がある。
ヒューマンマシンシステムはより普及し、これらのシステムの設計はヒューマンラーニング(hl)とrlの両方のタスク指向の理解に依存している。
このようにして、学習タスクの構造が学習性能に与える影響を特徴付ける研究が重要となる。
ますます複雑なベンチマーク環境がRL機能の改善につながったが、タスク構造の研究にそのような環境を使うのは難しい。
この課題に対処するために,HLとRLに対するタスク構造の影響の厳密な研究を支援する学習環境を提案する。
本研究では,人間とrlアルゴリズムの性能差を示すタスク構造実験を例示して,環境の有用性を実証する。
関連論文リスト
- Sample Efficient Myopic Exploration Through Multitask Reinforcement
Learning with Diverse Tasks [53.44714413181162]
本稿では, エージェントが十分に多様なタスクセットで訓練された場合, 筋電図探索設計による一般的なポリシー共有アルゴリズムは, サンプル効率がよいことを示す。
我々の知る限りでは、これはMTRLの「探索的利益」の初めての理論的実証である。
論文 参考訳(メタデータ) (2024-03-03T22:57:44Z) - Improving Reinforcement Learning Efficiency with Auxiliary Tasks in
Non-Visual Environments: A Comparison [0.0]
本研究は,低次元非視覚的観察のための唯一の疎結合表現学習法である,我々の知識を最大限に活用して,一般的な補助課題と比較する。
その結果, 十分複雑な環境下では, 補助的タスクによる表現学習は, 性能向上にのみ寄与することがわかった。
論文 参考訳(メタデータ) (2023-10-06T13:22:26Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - Human-Inspired Framework to Accelerate Reinforcement Learning [1.6317061277457001]
強化学習(Reinforcement Learning, RL)は、データサイエンスの意思決定において重要であるが、サンプルの不効率に悩まされている。
本稿では,RLアルゴリズムのサンプル効率を向上させるための,人間に触発された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-28T13:15:04Z) - Zipfian environments for Reinforcement Learning [19.309119596790563]
シュキュード体験からしっかり学習することは、シミュレーションや研究室を超えてDeep RL手法を適用する上で重要な課題であることを示す。
エージェントの経験がZipfian(離散電力法則)分布によって異なる3つの相補的なRL環境を開発する。
この結果から, シュキュード・エクスペリエンスからの学習が, シミュレーションや実験室を超えて深部RL法を適用する上で重要な課題であることが示唆された。
論文 参考訳(メタデータ) (2022-03-15T19:59:10Z) - L2Explorer: A Lifelong Reinforcement Learning Assessment Environment [49.40779372040652]
強化学習ソリューションは、トレーニングされたデータ配布以外の新しいタスクに晒されると、あまり一般化しない傾向があります。
生涯学習エクスプローラー(L2Explorer)を用いた継続的強化学習開発と評価のための枠組みを導入する。
L2Explorerは新しいUnityベースのファーストパーソンな3D探索環境で、複雑な評価カリキュラムに構造化されたタスクやタスクのバリエーションを生成するために継続的に再構成することができる。
論文 参考訳(メタデータ) (2022-03-14T19:20:26Z) - Rethinking Learning Dynamics in RL using Adversarial Networks [79.56118674435844]
本稿では,スキル埋め込み空間を通じてパラメータ化された,密接に関連するスキルの強化学習のための学習機構を提案する。
本研究の主な貢献は、エントロピー規則化政策勾配定式化の助けを借りて、強化学習のための敵の訓練体制を定式化することである。
論文 参考訳(メタデータ) (2022-01-27T19:51:09Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z) - Human AI interaction loop training: New approach for interactive
reinforcement learning [0.0]
機械学習の様々な意思決定タスクにおける強化学習(RL)は、スタンドアロンの報酬関数から学習するエージェントによる効果的な結果を提供する。
RLは、多くの環境状態と行動空間、および報酬の決定に固有の課題を提示する。
イミテーションラーニング(IL)は、教師を使った課題に対して有望な解決策を提供する。
論文 参考訳(メタデータ) (2020-03-09T15:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。