論文の概要: Model-based Offline Imitation Learning with Non-expert Data
- arxiv url: http://arxiv.org/abs/2206.05521v1
- Date: Sat, 11 Jun 2022 13:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 09:10:15.802450
- Title: Model-based Offline Imitation Learning with Non-expert Data
- Title(参考訳): 非専門データを用いたモデルベースオフライン模倣学習
- Authors: Jeongwon Park, Lin Yang
- Abstract要約: 本稿では,最適条件と最適条件の両方で収集されたデータセットを活用する,スケーラブルなモデルベースオフライン模倣学習アルゴリズムフレームワークを提案する。
提案手法は, シミュレーションされた連続制御領域上での低データ構造における振舞いクローンよりも優れることを示す。
- 参考スコア(独自算出の注目度): 7.615595533111191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although Behavioral Cloning (BC) in theory suffers compounding errors, its
scalability and simplicity still makes it an attractive imitation learning
algorithm. In contrast, imitation approaches with adversarial training
typically does not share the same problem, but necessitates interactions with
the environment. Meanwhile, most imitation learning methods only utilises
optimal datasets, which could be significantly more expensive to obtain than
its suboptimal counterpart. A question that arises is, can we utilise the
suboptimal dataset in a principled manner, which otherwise would have been
idle? We propose a scalable model-based offline imitation learning algorithmic
framework that leverages datasets collected by both suboptimal and optimal
policies, and show that its worst case suboptimality becomes linear in the time
horizon with respect to the expert samples. We empirically validate our
theoretical results and show that the proposed method \textit{always}
outperforms BC in the low data regime on simulated continuous control domains
- Abstract(参考訳): 理論上は行動クローニング(bc)は複合的なエラーに苦しむが、そのスケーラビリティと単純さは依然として魅力的な模倣学習アルゴリズムとなっている。
対照的に、逆行訓練による模倣アプローチは、通常同じ問題を共有せず、環境との相互作用を必要とする。
一方、ほとんどの模倣学習法は最適なデータセットのみを使用しており、これはサブオプティマイズよりもかなりコストがかかる可能性がある。
問題は、サブオプティカルデータセットを原則的に活用できるのか、それ以外はアイドルだったのか、ということだ。
本稿では,モデルに基づくオフライン模倣学習アルゴリズムフレームワークを提案する。このフレームワークは,最適条件と最適ポリシーの両方によって収集されたデータセットを活用する。
提案手法は, シミュレーションされた連続制御領域上での低データ構造において, BC よりも優れた性能を示すことを示す。
関連論文リスト
- Bayesian Nonparametrics Meets Data-Driven Distributionally Robust Optimization [29.24821214671497]
機械学習と統計モデルのトレーニングは、しばしばデータ駆動型リスク基準の最適化を伴う。
ベイズ的非パラメトリック(ディリクレ過程)理論と、スムーズなあいまいさ-逆選好の最近の決定論的モデルを組み合わせた、新しいロバストな基準を提案する。
実用的な実装として、よく知られたディリクレプロセスの表現に基づいて、評価基準の抽出可能な近似を提案し、研究する。
論文 参考訳(メタデータ) (2024-01-28T21:19:15Z) - Towards Accelerated Model Training via Bayesian Data Selection [45.62338106716745]
本稿では,モデルの一般化損失に対するデータの影響を調べることによって,より合理的なデータ選択原理を提案する。
近年の研究では、モデルの一般化損失に対するデータの影響を調べることによって、より合理的なデータ選択の原則が提案されている。
この研究は、軽量ベイズ処理を活用し、大規模な事前訓練モデル上に構築された既製のゼロショット予測器を組み込むことにより、これらの問題を解決する。
論文 参考訳(メタデータ) (2023-08-21T07:58:15Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Pessimistic Q-Learning for Offline Reinforcement Learning: Towards
Optimal Sample Complexity [51.476337785345436]
有限水平マルコフ決定過程の文脈におけるQ-ラーニングの悲観的変種について検討する。
ほぼ最適サンプル複雑性を実現するために,分散再現型悲観的Q-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T15:39:36Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。