論文の概要: Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems
- arxiv url: http://arxiv.org/abs/2005.01643v3
- Date: Sun, 1 Nov 2020 23:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 23:53:27.417853
- Title: Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems
- Title(参考訳): オフライン強化学習 - チュートリアル, レビュー, オープンな問題への展望
- Authors: Sergey Levine, Aviral Kumar, George Tucker, Justin Fu
- Abstract要約: オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
- 参考スコア(独自算出の注目度): 108.81683598693539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this tutorial article, we aim to provide the reader with the conceptual
tools needed to get started on research on offline reinforcement learning
algorithms: reinforcement learning algorithms that utilize previously collected
data, without additional online data collection. Offline reinforcement learning
algorithms hold tremendous promise for making it possible to turn large
datasets into powerful decision making engines. Effective offline reinforcement
learning methods would be able to extract policies with the maximum possible
utility out of the available data, thereby allowing automation of a wide range
of decision-making domains, from healthcare and education to robotics. However,
the limitations of current algorithms make this difficult. We will aim to
provide the reader with an understanding of these challenges, particularly in
the context of modern deep reinforcement learning methods, and describe some
potential solutions that have been explored in recent work to mitigate these
challenges, along with recent applications, and a discussion of perspectives on
open problems in the field.
- Abstract(参考訳): 本稿では、オフライン強化学習アルゴリズムの研究を開始するために必要な概念的ツールを読者に提供することを目的としている。
オフラインの強化学習アルゴリズムは、大規模なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
効果的なオフライン強化学習方法は、利用可能なデータから可能な限り最大限のユーティリティでポリシーを抽出し、医療や教育からロボティクスまで幅広い意思決定領域の自動化を可能にする。
しかし、現在のアルゴリズムの限界は、これを難しくしている。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題の理解を提供し,これらの課題を緩和するために近年研究されている潜在的な解決策と,最近の応用,およびこの分野におけるオープンな問題に対する視点に関する議論について述べる。
関連論文リスト
- On the Opportunities and Challenges of Offline Reinforcement Learning
for Recommender Systems [36.608400817940236]
強化学習は、推薦システム内の動的なユーザ興味をモデリングするための強力なツールである。
オフライン強化学習における最近の進歩は、新しい視点を示している。
急成長している分野であるにもかかわらず、オフラインの強化学習を利用したレコメンデーションシステムを中心とした作業は依然として限られている。
論文 参考訳(メタデータ) (2023-08-22T10:28:02Z) - Benchmarking Offline Reinforcement Learning on Real-Robot Hardware [35.29390454207064]
特にデクサラスな操作は、その一般的な形式において未解決の問題である。
本稿では,2つのタスク上の厳密な操作プラットフォームからオフライン学習のための大量のデータを含むベンチマークを提案する。
実システム上でのオフライン強化学習のための再現可能な実験的なセットアップを提供する。
論文 参考訳(メタデータ) (2023-07-28T17:29:49Z) - A Survey of Label-Efficient Deep Learning for 3D Point Clouds [109.07889215814589]
本稿では,点雲のラベル効率学習に関する包括的調査を行う。
本稿では,ラベルの種類によって提供されるデータ前提条件に基づいて,ラベル効率のよい学習手法を整理する分類法を提案する。
それぞれのアプローチについて、問題設定の概要と、関連する進展と課題を示す広範な文献レビューを提供する。
論文 参考訳(メタデータ) (2023-05-31T12:54:51Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - Skill-based Meta-Reinforcement Learning [65.31995608339962]
本研究では,長期的スパース・リワードタスクにおけるメタラーニングを実現する手法を提案する。
私たちの中核となる考え方は、メタ学習中にオフラインデータセットから抽出された事前経験を活用することです。
論文 参考訳(メタデータ) (2022-04-25T17:58:19Z) - A Survey on Offline Reinforcement Learning: Taxonomy, Review, and Open
Problems [0.0]
強化学習(RL)は、急速に人気が高まっている。
高いコストと環境との相互作用の危険性のため、RLにはアクセスできない領域がまだ広い範囲にある。
オフラインRLは、以前に収集されたインタラクションの静的データセットからのみ学習するパラダイムである。
論文 参考訳(メタデータ) (2022-03-02T20:05:11Z) - Self-Supervised Representation Learning: Introduction, Advances and
Challenges [125.38214493654534]
自己教師付き表現学習手法は、大きな注釈付きデータセットを必要とせずに強力な機能学習を提供することを目的としている。
本稿では、この活気ある領域について、鍵となる概念、アプローチの4つの主要なファミリーと関連する技術の状態、そして、データの多様性に自己監督手法を適用する方法について紹介する。
論文 参考訳(メタデータ) (2021-10-18T13:51:22Z) - A Survey of Deep Meta-Learning [1.2891210250935143]
ディープニューラルネットワークは、巨大なデータセットと十分な計算リソースを提示することで、大きな成功を収めることができる。
しかし、新しい概念を素早く習得する能力は限られている。
ディープメタラーニング(Deep Meta-Learning)は、ネットワークが学習方法を学ぶことを可能にすることでこの問題に対処するアプローチのひとつだ。
論文 参考訳(メタデータ) (2020-10-07T17:09:02Z) - Continual Learning for Anomaly Detection in Surveillance Videos [36.24563211765782]
本稿では,移動学習と連続学習を用いた監視ビデオのオンライン異常検出手法を提案する。
提案アルゴリズムは,移動学習のためのニューラルネットワークモデルの特徴抽出能力と,統計的検出手法の連続学習能力を利用する。
論文 参考訳(メタデータ) (2020-04-15T16:41:20Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。