論文の概要: On Reward Structures of Markov Decision Processes
- arxiv url: http://arxiv.org/abs/2308.14919v1
- Date: Mon, 28 Aug 2023 22:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 16:27:51.302092
- Title: On Reward Structures of Markov Decision Processes
- Title(参考訳): マルコフ決定過程の報酬構造について
- Authors: Falcon Z. Dai
- Abstract要約: マルコフ決定過程は、遷移カーネルと報酬関数によってパラメータ化することができる。
報酬はマルコフ決定過程の構造を理解する中心であり、報酬中心の概念は強化学習において重要な概念を解明することができる。
- 参考スコア(独自算出の注目度): 4.13365552362244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Markov decision process can be parameterized by a transition kernel and a
reward function. Both play essential roles in the study of reinforcement
learning as evidenced by their presence in the Bellman equations. In our
inquiry of various kinds of ``costs'' associated with reinforcement learning
inspired by the demands in robotic applications, rewards are central to
understanding the structure of a Markov decision process and reward-centric
notions can elucidate important concepts in reinforcement learning.
Specifically, we studied the sample complexity of policy evaluation and
developed a novel estimator with an instance-specific error bound of
$\tilde{O}(\sqrt{\frac{\tau_s}{n}})$ for estimating a single state value. Under
the online regret minimization setting, we refined the transition-based MDP
constant, diameter, into a reward-based constant, maximum expected hitting
cost, and with it, provided a theoretical explanation for how a well-known
technique, potential-based reward shaping, could accelerate learning with
expert knowledge. In an attempt to study safe reinforcement learning, we
modeled hazardous environments with irrecoverability and proposed a
quantitative notion of safe learning via reset efficiency. In this setting, we
modified a classic algorithm to account for resets achieving promising
preliminary numerical results. Lastly, for MDPs with multiple reward functions,
we developed a planning algorithm that computationally efficiently finds Pareto
optimal stochastic policies.
- Abstract(参考訳): マルコフ決定過程は遷移核と報酬関数によってパラメータ化することができる。
両者はベルマン方程式における強化学習の研究において重要な役割を担っている。
ロボット応用における要求に触発された強化学習に関連する様々な「コスト」の考察において,報酬はマルコフ決定過程の構造を理解する上で中心であり,報酬中心の概念は強化学習における重要な概念を明らかにする。
具体的には、ポリシー評価のサンプル複雑さを調べ、単一状態値の推定に$\tilde{o}(\sqrt{\frac{\tau_s}{n}})$のインスタンス固有のエラーバウンドを持つ新しい推定器を開発した。
オンラインの後悔最小化設定では、遷移ベースのMDP定数、直径を報酬ベース定数、最大ヒットコストに改良し、それとともに、よく知られた技術である潜在的報酬形成が専門家の知識で学習を加速する理論的な説明を提供した。
安全強化学習の研究を目的として,危険環境を非発見性でモデル化し,リセット効率による安全な学習の定量的概念を提案した。
この設定では,予備的な数値結果が得られるリセットを考慮した古典的なアルゴリズムを修正した。
最後に,複数の報酬関数を持つMDPに対して,Paretoの最適確率ポリシーを効率的に求める計画アルゴリズムを開発した。
関連論文リスト
- Burning RED: Unlocking Subtask-Driven Reinforcement Learning and Risk-Awareness in Average-Reward Markov Decision Processes [7.028778922533688]
平均回帰マルコフ決定プロセス(MDPs)は、不確実性の下でのシーケンシャルな意思決定の基盤となる枠組みを提供する。
平均再帰型MDPのユニークな構造特性を考察し,これを用いてReward-Extended Differential (RED) 強化学習を導入する。
論文 参考訳(メタデータ) (2024-10-14T14:52:23Z) - Let's reward step by step: Step-Level reward model as the Navigators for
Reasoning [64.27898739929734]
Process-Supervised Reward Model (PRM)は、トレーニングフェーズ中にステップバイステップのフィードバックをLLMに提供する。
LLMの探索経路を最適化するために,PRMからのステップレベルのフィードバックを応用した欲求探索アルゴリズムを提案する。
提案手法の汎用性を探るため,コーディングタスクのステップレベル報酬データセットを自動生成する手法を開発し,コード生成タスクにおける同様の性能向上を観察する。
論文 参考訳(メタデータ) (2023-10-16T05:21:50Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Model-based Safe Deep Reinforcement Learning via a Constrained Proximal
Policy Optimization Algorithm [4.128216503196621]
オンライン方式で環境の遷移動態を学習する,オンライン型モデルに基づくセーフディープRLアルゴリズムを提案する。
我々は,本アルゴリズムがより標本効率が高く,制約付きモデルフリーアプローチと比較して累積的ハザード違反が低いことを示す。
論文 参考訳(メタデータ) (2022-10-14T06:53:02Z) - Weighted Maximum Entropy Inverse Reinforcement Learning [22.269565708490468]
逆強化学習(IRL)と模倣学習(IM)について検討する。
エントロピーフレームワークに最大重み関数を追加することで学習プロセスを改善する新しい方法を提案する。
我々のフレームワークとアルゴリズムは、報酬(またはポリシー)関数とマルコフ決定プロセスに追加されるエントロピー項の構造の両方を学ぶことができる。
論文 参考訳(メタデータ) (2022-08-20T06:02:07Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Average Reward Adjusted Discounted Reinforcement Learning:
Near-Blackwell-Optimal Policies for Real-World Applications [0.0]
強化学習は、与えられたマルコフ決定プロセスの最適な定常ポリシーを見つけることを目的としている。
本稿では,広く適用されている標準割引強化学習フレームワークについて,理論的考察を行う。
我々はブラックウェル-最適強化学習アルゴリズムを新たに構築する。
論文 参考訳(メタデータ) (2020-04-02T08:05:18Z) - Upper Confidence Primal-Dual Reinforcement Learning for CMDP with
Adversarial Loss [145.54544979467872]
マルコフ決定過程(CMDP)に対するオンライン学習の検討
本稿では,遷移モデルから標本化した軌跡のみを必要とする,新しいEmphupper confidence primal-dualアルゴリズムを提案する。
我々の分析では、ラグランジュ乗算過程の新たな高確率ドリフト解析を、高信頼強化学習の記念後悔解析に組み入れている。
論文 参考訳(メタデータ) (2020-03-02T05:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。