論文の概要: Contextualize Me -- The Case for Context in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2202.04500v1
- Date: Wed, 9 Feb 2022 15:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 18:27:16.016819
- Title: Contextualize Me -- The Case for Context in Reinforcement Learning
- Title(参考訳): contextize me -- 強化学習におけるコンテキストのケース
- Authors: Carolin Benjamins, Theresa Eimer, Frederik Schubert, Aditya Mohan,
Andr\'e Biedenkapp, Bodo Rosenhahn, Frank Hutter, Marius Lindauer
- Abstract要約: 文脈強化学習(cRL)は、このような変化を原則的にモデル化するための理論的枠組みを提供する。
文脈的マルコフ決定過程における理論的に最適な振る舞いは、明示的な文脈情報を必要とすることを示す。
一般的なベンチマークであるCARLのcRL拡張に基づく一般化のために設計された最初のベンチマークライブラリを紹介する。
- 参考スコア(独自算出の注目度): 51.938902755296795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Reinforcement Learning (RL) has made great strides towards solving
increasingly complicated problems, many algorithms are still brittle to even
slight changes in environments. Contextual Reinforcement Learning (cRL)
provides a theoretical framework to model such changes in a principled manner,
thereby enabling flexible, precise and interpretable task specification and
generation. Thus, cRL is an important formalization for studying generalization
in RL. In this work, we reason about solving cRL in theory and practice. We
show that theoretically optimal behavior in contextual Markov Decision
Processes requires explicit context information. In addition, we empirically
explore context-based task generation, utilizing context information in
training and propose cGate, our state-modulating policy architecture. To this
end, we introduce the first benchmark library designed for generalization based
on cRL extensions of popular benchmarks, CARL. In short: Context matters!
- Abstract(参考訳): 強化学習(rl)はますます複雑な問題を解決する上で大きな一歩を踏み出したが、多くのアルゴリズムは環境のわずかな変化にも脆弱である。
文脈強化学習(cRL)は、このような変化を原則的にモデル化し、柔軟で正確で解釈可能なタスク仕様と生成を可能にする理論的枠組みを提供する。
したがって、cRL は RL の一般化を研究するための重要な形式化である。
この研究では、理論と実践におけるcRLの解法について論じる。
文脈マルコフ決定過程における理論的に最適な振る舞いは、明示的な文脈情報を必要とする。
さらに,学習中のコンテキスト情報を活用したコンテキストベースのタスク生成を実証的に検討し,状態調整型ポリシアーキテクチャであるcgateを提案する。
そこで本研究では,CARLのcRL拡張に基づく一般化のための最初のベンチマークライブラリを提案する。
要するに、コンテキストは重要です!
関連論文リスト
- Towards an Information Theoretic Framework of Context-Based Offline Meta-Reinforcement Learning [48.79569442193824]
我々は,COMRLアルゴリズムが,タスク変数$M$と,その潜在表現$Z$の相互情報目的を,様々な近似境界を実装して最適化していることを示す。
本研究は,COMRL法の情報理論基盤を構築し,強化学習の文脈におけるタスク表現学習の理解を深める。
論文 参考訳(メタデータ) (2024-02-04T09:58:42Z) - RL-ViGen: A Reinforcement Learning Benchmark for Visual Generalization [23.417092819516185]
視覚一般化のための強化学習ベンチマークRL-ViGenを紹介する。
RL-ViGenは多種多様なタスクと幅広い一般化型を含み、より信頼性の高い結論の導出を容易にする。
我々の願望は、RL-ViGenが将来の普遍的な視覚一般化RLエージェントの創出の触媒となることである。
論文 参考訳(メタデータ) (2023-07-15T05:45:37Z) - The Role of Diverse Replay for Generalisation in Reinforcement Learning [7.399291598113285]
強化学習における探索戦略とリプレイバッファが一般化に与える影響について検討する。
トレーニング環境からより多様なデータの収集とトレーニングを行うことで、ゼロショットの一般化が新しいタスクに改善されることが示される。
論文 参考訳(メタデータ) (2023-06-09T07:48:36Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Improving Zero-shot Generalization in Offline Reinforcement Learning
using Generalized Similarity Functions [34.843526573355746]
強化学習(Reinforcement Learning, RL)エージェントは、複雑な逐次意思決定タスクの解決に広く用いられているが、訓練中に見えないシナリオに一般化することが困難である。
RLにおける一般化のためのオンラインアルゴリズムの性能は、観測間の類似性の評価が不十分なため、オフライン環境では妨げられることを示す。
本稿では, 一般化類似度関数(GSF)と呼ばれる新しい理論的動機付けフレームワークを提案する。このフレームワークは, 競合学習を用いてオフラインのRLエージェントを訓練し, 期待される将来の行動の類似性に基づいて観測を集約する。
論文 参考訳(メタデータ) (2021-11-29T15:42:54Z) - CARL: A Benchmark for Contextual and Adaptive Reinforcement Learning [45.52724876199729]
本稿では、文脈RL問題に拡張されたよく知られたRL環境の集合であるCARLについて述べる。
政策学習から状態の表現学習と文脈を分離することで、より一般化が促進されるという最初の証拠を提供する。
論文 参考訳(メタデータ) (2021-10-05T15:04:01Z) - When Is Generalizable Reinforcement Learning Tractable? [74.87383727210705]
複数の環境に一般化可能なRLエージェントの訓練に必要なクエリ複雑性について検討する。
異なる環境の相対的近接性を正確に特徴付ける構造条件である強近接を導入する。
この条件の自然な弱化の下では、rlは水平方向に指数関数的であるクエリの複雑さを必要とする。
論文 参考訳(メタデータ) (2021-01-01T19:08:24Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。