論文の概要: Mutual Information Regularized Offline Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2210.07484v1
- Date: Fri, 14 Oct 2022 03:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 15:22:45.110902
- Title: Mutual Information Regularized Offline Reinforcement Learning
- Title(参考訳): 相互情報正規化オフライン強化学習
- Authors: Xiao Ma, Bingyi Kang, Zhongwen Xu, Min Lin, Shuicheng Yan
- Abstract要約: オフライン強化学習は、環境とのアクティブな相互作用なしにオフラインデータセットから効果的なポリシーを学ぶことを目的としている。
既存の手法の多くは、政策改善中の行動方針から逸脱する政策を罰することでこの問題に対処している。
我々は、データセットにおける状態と行動間の相互情報の観点から、オフラインRLにアプローチする新しいMISAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 104.74042858694567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Offline reinforcement learning (RL) aims at learning an effective policy from
offline datasets without active interactions with the environment. The major
challenge of offline RL is the distribution shift that appears when
out-of-distribution actions are queried, which makes the policy improvement
direction biased by extrapolation errors. Most existing methods address this
problem by penalizing the policy for deviating from the behavior policy during
policy improvement or making conservative updates for value functions during
policy evaluation. In this work, we propose a novel MISA framework to approach
offline RL from the perspective of Mutual Information between States and
Actions in the dataset by directly constraining the policy improvement
direction. Intuitively, mutual information measures the mutual dependence of
actions and states, which reflects how a behavior agent reacts to certain
environment states during data collection. To effectively utilize this
information to facilitate policy learning, MISA constructs lower bounds of
mutual information parameterized by the policy and Q-values. We show that
optimizing this lower bound is equivalent to maximizing the likelihood of a
one-step improved policy on the offline dataset. In this way, we constrain the
policy improvement direction to lie in the data manifold. The resulting
algorithm simultaneously augments the policy evaluation and improvement by
adding a mutual information regularization. MISA is a general offline RL
framework that unifies conservative Q-learning (CQL) and behavior
regularization methods (e.g., TD3+BC) as special cases. Our experiments show
that MISA performs significantly better than existing methods and achieves new
state-of-the-art on various tasks of the D4RL benchmark.
- Abstract(参考訳): オフライン強化学習(RL)は、環境とのアクティブな相互作用なしにオフラインデータセットから効果的なポリシーを学ぶことを目的としている。
オフラインRLの最大の課題は、アウト・オブ・ディストリビューション・アクションがクエリーされたときに現れる分布シフトである。
既存の手法の多くは、政策改善時に行動方針から逸脱する政策を罰することや、政策評価中に価値関数の保守的な更新を行うことでこの問題に対処している。
本研究では,政策改善の方向性を直接拘束することで,データセット内の状態と行動間の相互情報の観点から,オフラインRLにアプローチする新しいMISAフレームワークを提案する。
直感的には、相互情報は行動と状態の相互依存を測定し、行動エージェントがデータ収集中に特定の環境状態にどのように反応するかを反映する。
この情報を効果的に活用して政策学習を容易にするため、MISAはポリシーとQ値によってパラメータ化された相互情報の下位境界を構築する。
この下限を最適化することは、オフラインデータセット上のワンステップ改善ポリシーの可能性を最大化するのと同値である。
このように、我々は政策改善の方向性をデータ多様体に限定する。
得られたアルゴリズムは、相互情報正規化を追加することにより、政策評価と改善を同時に強化する。
MISAは、保守的なQ-ラーニング(CQL)と行動規則化(TD3+BC)を特別なケースとして統合する一般的なオフラインRLフレームワークである。
実験の結果,MISA は既存の手法よりも優れた性能を示し,D4RL ベンチマークの様々なタスクにおける新しい最先端性を実現している。
関連論文リスト
- TD-M(PC)$^2$: Improving Temporal Difference MPC Through Policy Constraint [11.347808936693152]
モデルベースの強化学習アルゴリズムは、モデルベースの計画と学習された価値/政治を組み合わせる。
バリューラーニングに標準のSACスタイルのポリシーイテレーションに依存する既存の手法は、しばしばエンハンピスタントな価値過大評価をもたらす。
本稿では,ODAクエリを削減し,価値学習を改善する政策正規化項を提案する。
論文 参考訳(メタデータ) (2025-02-05T19:08:42Z) - Planning to Go Out-of-Distribution in Offline-to-Online Reinforcement Learning [9.341618348621662]
オンラインインタラクションの限られた予算の中で、最高のパフォーマンスポリシーを見つけることを目指しています。
まず本研究では,本質的な報酬と UCB に基づくオンラインRL探索手法について検討する。
そして,これらの問題を回避するために,配当を廃止する計画を立てるアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-09T13:47:05Z) - Iteratively Refined Behavior Regularization for Offline Reinforcement
Learning [57.10922880400715]
本稿では,保守的政策反復に基づく行動規則化を大幅に強化する新しいアルゴリズムを提案する。
行動規則化に使用される基準ポリシーを反復的に洗練することにより、保守的な政策更新は徐々に改善される。
D4RLベンチマークの実験結果から,本手法は従来のタスクのベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-09T07:46:24Z) - Offline Imitation Learning with Suboptimal Demonstrations via Relaxed
Distribution Matching [109.5084863685397]
オフライン模倣学習(IL)は、環境と相互作用することなく、事前にコンパイルされたデモからパフォーマンスポリシーを学習する機能を提供する。
非対称な f-分割を明示的なサポート正規化に用いたRelaxDICEを提案する。
提案手法は,6つの標準連続制御環境において,最上位のオフライン手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-03-05T03:35:11Z) - Efficient Policy Evaluation with Offline Data Informed Behavior Policy Design [18.326126953667842]
オンラインモンテカルロ推定器のデータ効率を向上させる新しい手法を提案する。
まず,オンラインモンテカルロ推定器のばらつきを確実に低減する閉形式行動ポリシーを提案する。
次に、以前に収集したオフラインデータから、このクローズドフォームの動作ポリシーを学習するための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-01-31T16:12:31Z) - Offline Reinforcement Learning with Closed-Form Policy Improvement
Operators [88.54210578912554]
行動制約付きポリシー最適化は、オフライン強化学習に対処するための成功パラダイムであることが示されている。
本稿では,閉形式政策改善演算子を提案する。
我々は、標準的なD4RLベンチマークにおいて、最先端アルゴリズムに対するそれらの効果を実証的に実証した。
論文 参考訳(メタデータ) (2022-11-29T06:29:26Z) - Offline RL With Realistic Datasets: Heteroskedasticity and Support
Constraints [82.43359506154117]
非均一な変数を持つデータから、典型的なオフライン強化学習手法が学習できないことを示す。
提案手法は,Atariゲーム,ナビゲーション,ピクセルベースの操作において,多種多様なオフラインRL問題にまたがる性能向上を図っている。
論文 参考訳(メタデータ) (2022-11-02T11:36:06Z) - BRAC+: Improved Behavior Regularized Actor Critic for Offline
Reinforcement Learning [14.432131909590824]
オフライン強化学習は、以前に収集したデータセットを使用して効果的なポリシーをトレーニングすることを目的としている。
標準的なオフ・ポリティクスRLアルゴリズムは、アウト・オブ・ディストリビューション(探索されていない)アクションの値を過大評価する傾向がある。
動作の規則化によるオフライン強化学習を改善し,BRAC+を提案する。
論文 参考訳(メタデータ) (2021-10-02T23:55:49Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。