論文の概要: Offline Reinforcement Learning with Causal Structured World Models
- arxiv url: http://arxiv.org/abs/2206.01474v1
- Date: Fri, 3 Jun 2022 09:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 21:35:05.746027
- Title: Offline Reinforcement Learning with Causal Structured World Models
- Title(参考訳): 因果構造世界モデルを用いたオフライン強化学習
- Authors: Zheng-Mao Zhu, Xiong-Hui Chen, Hong-Long Tian, Kun Zhang, Yang Yu
- Abstract要約: 因果世界モデルは、オフラインRLにおいて、通常の世界モデルよりも優れていることを示す。
本稿では, CaUsal Structure (FOCUS) を用いたoFfline mOdel型強化学習法を提案する。
- 参考スコア(独自算出の注目度): 9.376353239574243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-based methods have recently shown promising for offline reinforcement
learning (RL), aiming to learn good policies from historical data without
interacting with the environment. Previous model-based offline RL methods learn
fully connected nets as world-models that map the states and actions to the
next-step states. However, it is sensible that a world-model should adhere to
the underlying causal effect such that it will support learning an effective
policy generalizing well in unseen states. In this paper, We first provide
theoretical results that causal world-models can outperform plain world-models
for offline RL by incorporating the causal structure into the generalization
error bound. We then propose a practical algorithm, oFfline mOdel-based
reinforcement learning with CaUsal Structure (FOCUS), to illustrate the
feasibility of learning and leveraging causal structure in offline RL.
Experimental results on two benchmarks show that FOCUS reconstructs the
underlying causal structure accurately and robustly. Consequently, it performs
better than the plain model-based offline RL algorithms and other causal
model-based RL algorithms.
- Abstract(参考訳): モデルに基づく手法は, 環境と対話することなく, 過去のデータから優れたポリシーを学習することを目的として, オフライン強化学習(RL)を約束している。
従来のモデルベースオフラインRL手法は、状態とアクションを次のステップ状態にマッピングするワールドモデルとして、完全に接続されたネットを学習する。
しかし、世界モデルは、見知らぬ国でよく一般化された効果的な政策の学習を支援するように、根底にある因果効果に固執すべきである。
本稿では、因果構造を一般化誤差境界に組み込むことで、因果世界モデルがオフラインRLのプレーンワールドモデルより優れているという理論的結果を提供する。
次に,オフラインrlにおける因果構造を活用し,学習の可能性を説明するために,因果構造を用いたオフラインモデルに基づく強化学習を提案する。
2つのベンチマーク実験の結果、FOCUSは根底にある因果構造を正確かつ堅牢に再構築した。
その結果、通常のモデルベースオフラインRLアルゴリズムや他の因果モデルベースRLアルゴリズムよりも性能が良くなった。
関連論文リスト
- SAMBO-RL: Shifts-aware Model-based Offline Reinforcement Learning [9.88109749688605]
モデルベースのオフライン強化学習は、オフラインデータセットとモデルダイナミクスに基づいたポリシーを訓練する。
本稿では,その問題をモデルバイアスとポリシーシフトという2つの重要な要素に分解する。
シフト対応モデルに基づくオフライン強化学習(SAMBO-RL)を紹介する。
論文 参考訳(メタデータ) (2024-08-23T04:25:09Z) - Learning from Random Demonstrations: Offline Reinforcement Learning with Importance-Sampled Diffusion Models [19.05224410249602]
閉ループポリシー評価と世界モデル適応を用いたオフライン強化学習のための新しい手法を提案する。
提案手法の性能を解析し,提案手法と実環境とのリターンギャップに上限を設けた。
論文 参考訳(メタデータ) (2024-05-30T09:34:31Z) - A Neuromorphic Architecture for Reinforcement Learning from Real-Valued
Observations [0.34410212782758043]
強化学習(RL)は複雑な環境における意思決定のための強力なフレームワークを提供する。
本稿では,実測値を用いてRL問題を解くための新しいスパイキングニューラルネットワーク(SNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-07-06T12:33:34Z) - A Unified Framework for Alternating Offline Model Training and Policy
Learning [62.19209005400561]
オフラインモデルに基づく強化学習では、歴史的収集データから動的モデルを学び、学習モデルと固定データセットを用いてポリシー学習を行う。
提案手法は,本手法が期待するリターンを最小限に抑えるための,反復的なオフラインMBRLフレームワークを開発する。
提案する統一型モデル政治学習フレームワークにより、我々は、広範囲の連続制御オフライン強化学習データセット上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-12T04:58:51Z) - Behavioral Priors and Dynamics Models: Improving Performance and Domain
Transfer in Offline RL [82.93243616342275]
適応行動優先型オフラインモデルに基づくRL(Adaptive Behavioral Priors:MABE)を導入する。
MABEは、ドメイン内の一般化をサポートする動的モデルと、ドメイン間の一般化をサポートする振る舞いの事前が相補的であることの発見に基づいている。
クロスドメインの一般化を必要とする実験では、MABEが先行手法より優れていることが判明した。
論文 参考訳(メタデータ) (2021-06-16T20:48:49Z) - Offline Reinforcement Learning from Images with Latent Space Models [60.69745540036375]
オフライン強化学習(RL)とは、環境相互作用の静的データセットからポリシーを学習する問題を指します。
オフラインRLのためのモデルベースアルゴリズムの最近の進歩の上に構築し、それらを高次元の視覚観測空間に拡張する。
提案手法は, 実測可能であり, 未知のPOMDPにおけるELBOの下限の最大化に対応している。
論文 参考訳(メタデータ) (2020-12-21T18:28:17Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z) - MOReL : Model-Based Offline Reinforcement Learning [49.30091375141527]
オフライン強化学習(RL)では、環境との歴史的相互作用のデータセットのみに基づく高報酬政策を学習することが目的である。
モデルベースオフラインRLのためのアルゴリズムフレームワークMOReLを提案する。
オフラインRLベンチマークにおいてMOReLが最先端の結果と一致するか,あるいは超えるかを示す。
論文 参考訳(メタデータ) (2020-05-12T17:52:43Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。