論文の概要: Domain Generalization for Robust Model-Based Offline Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2211.14827v1
- Date: Sun, 27 Nov 2022 13:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:46:39.830143
- Title: Domain Generalization for Robust Model-Based Offline Reinforcement
Learning
- Title(参考訳): ロバストモデルに基づくオフライン強化学習のためのドメイン一般化
- Authors: Alan Clark, Shoaib Ahmed Siddiqui, Robert Kirk, Usman Anwar, Stephen
Chung, David Krueger
- Abstract要約: 既存のオフライン強化学習アルゴリズムは、トレーニングデータが既知のポリシーによって生成されるか、完全に未知の起源であると仮定する。
マルチデーモンストレータのオフラインRLは、各データセットをどのデモストレータが生成したかがわかる中間層であるが、デモストレータの基盤となるポリシーについては仮定しない。
ドメイン不変モデルベースオフラインRL(DIMORL)を提案し,リスク外挿法(REx)をダイナミックスおよび報酬モデル学習のプロセスに適用する。
- 参考スコア(独自算出の注目度): 5.653790804686631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing offline reinforcement learning (RL) algorithms typically assume that
training data is either: 1) generated by a known policy, or 2) of entirely
unknown origin. We consider multi-demonstrator offline RL, a middle ground
where we know which demonstrators generated each dataset, but make no
assumptions about the underlying policies of the demonstrators. This is the
most natural setting when collecting data from multiple human operators, yet
remains unexplored. Since different demonstrators induce different data
distributions, we show that this can be naturally framed as a domain
generalization problem, with each demonstrator corresponding to a different
domain. Specifically, we propose Domain-Invariant Model-based Offline RL
(DIMORL), where we apply Risk Extrapolation (REx) (Krueger et al., 2020) to the
process of learning dynamics and rewards models. Our results show that models
trained with REx exhibit improved domain generalization performance when
compared with the natural baseline of pooling all demonstrators' data. We
observe that the resulting models frequently enable the learning of superior
policies in the offline model-based RL setting, can improve the stability of
the policy learning process, and potentially enable increased exploration.
- Abstract(参考訳): 既存のオフライン強化学習(RL)アルゴリズムは通常、トレーニングデータは以下のどちらかであると仮定する。
1) 既知の方針によって生じるもの,又は
2)出自が全く不明である。
マルチデーモンストレータのオフラインRLは、各データセットをどのデモストレータが生成したかがわかる中間層であるが、デモストレータの基盤となるポリシーについては仮定しない。
これは、複数の操作者からデータを集める場合の最も自然な設定であるが、未調査のままである。
異なるデモンストレータは異なるデータ分布を誘導するので、各デモンストレータが異なるドメインに対応するドメイン一般化問題として自然にフレーム化できることを示す。
具体的には、ドメイン不変モデルに基づくオフラインrl(dimorl)を提案し、リスク外挿(rex)(krueger et al., 2020)を学習ダイナミクスと報酬モデルに適用する。
以上の結果から,rexでトレーニングされたモデルは,すべてのデモンストレータのデータをプールする自然なベースラインと比較して,ドメインの一般化性能が向上することが示された。
オフラインモデルに基づくRL設定における優れたポリシーの学習を頻繁に可能とし、ポリシー学習プロセスの安定性を向上し、探索の強化を可能にすることを観察する。
関連論文リスト
- Learning from Random Demonstrations: Offline Reinforcement Learning with Importance-Sampled Diffusion Models [19.05224410249602]
閉ループポリシー評価と世界モデル適応を用いたオフライン強化学習のための新しい手法を提案する。
提案手法の性能を解析し,提案手法と実環境とのリターンギャップに上限を設けた。
論文 参考訳(メタデータ) (2024-05-30T09:34:31Z) - Improving Generalization of Alignment with Human Preferences through
Group Invariant Learning [56.19242260613749]
Reinforcement Learning from Human Feedback (RLHF) は、人間の好みに合わせた反応の生成を可能にする。
以前の研究は、強化学習(RL)がしばしばショートカットを利用して高い報酬を獲得し、挑戦的なサンプルを見落としていることを示している。
本稿では,複数のデータグループやドメインにまたがる一貫したポリシをRLで学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-18T13:54:15Z) - Diffusion Policies for Out-of-Distribution Generalization in Offline
Reinforcement Learning [1.9336815376402723]
オフラインのRLメソッドは、過去の経験を活用して、データ収集に使用される行動ポリシーよりも優れたポリシーを学ぶ。
しかし、オフラインのRLアルゴリズムは、トレーニング中にオンラインインタラクションが欠如しているため、分散シフトの処理やポリシーの効果的表現において課題に直面している。
本稿では,近年の拡散政策における状態再構成特徴学習を取り入れたSRDP(State Reconstruction for Diffusion Policies)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:34:23Z) - A Unified Framework for Alternating Offline Model Training and Policy
Learning [62.19209005400561]
オフラインモデルに基づく強化学習では、歴史的収集データから動的モデルを学び、学習モデルと固定データセットを用いてポリシー学習を行う。
提案手法は,本手法が期待するリターンを最小限に抑えるための,反復的なオフラインMBRLフレームワークを開発する。
提案する統一型モデル政治学習フレームワークにより、我々は、広範囲の連続制御オフライン強化学習データセット上での競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-12T04:58:51Z) - Behavioral Priors and Dynamics Models: Improving Performance and Domain
Transfer in Offline RL [82.93243616342275]
適応行動優先型オフラインモデルに基づくRL(Adaptive Behavioral Priors:MABE)を導入する。
MABEは、ドメイン内の一般化をサポートする動的モデルと、ドメイン間の一般化をサポートする振る舞いの事前が相補的であることの発見に基づいている。
クロスドメインの一般化を必要とする実験では、MABEが先行手法より優れていることが判明した。
論文 参考訳(メタデータ) (2021-06-16T20:48:49Z) - Reinforcement Learning as One Big Sequence Modeling Problem [84.84564880157149]
強化学習(Reinforcement Learning, RL)は、通常、単一ステップポリシーや単一ステップモデルの推定に関係している。
我々は、RLをシーケンスモデリング問題とみなし、高い報酬のシーケンスにつながる一連のアクションを予測することを目標としている。
論文 参考訳(メタデータ) (2021-06-03T17:58:51Z) - PerSim: Data-Efficient Offline Reinforcement Learning with Heterogeneous
Agents via Personalized Simulators [19.026312915461553]
我々はpersimと呼ばれるモデルベースオフライン強化学習(rl)手法を提案する。
まず,各エージェントのパーソナライズされたシミュレータを,政策を学ぶ前に,各エージェントの履歴軌跡をまとめて学習する。
この表現は、エージェントごとの遷移ダイナミクスを効果的に学習するための、単純で正規化されたニューラルネットワークアーキテクチャを示唆している。
論文 参考訳(メタデータ) (2021-02-13T17:16:41Z) - Offline Reinforcement Learning from Images with Latent Space Models [60.69745540036375]
オフライン強化学習(RL)とは、環境相互作用の静的データセットからポリシーを学習する問題を指します。
オフラインRLのためのモデルベースアルゴリズムの最近の進歩の上に構築し、それらを高次元の視覚観測空間に拡張する。
提案手法は, 実測可能であり, 未知のPOMDPにおけるELBOの下限の最大化に対応している。
論文 参考訳(メタデータ) (2020-12-21T18:28:17Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。