論文の概要: Offline Skill Graph (OSG): A Framework for Learning and Planning using
Offline Reinforcement Learning Skills
- arxiv url: http://arxiv.org/abs/2306.13630v1
- Date: Fri, 23 Jun 2023 17:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 11:57:36.468315
- Title: Offline Skill Graph (OSG): A Framework for Learning and Planning using
Offline Reinforcement Learning Skills
- Title(参考訳): オフラインスキルグラフ(OSG):オフライン強化学習スキルを用いた学習と計画のためのフレームワーク
- Authors: Ben-ya Halevy, Yehudit Aperstein, Dotan Di Castro
- Abstract要約: オフラインのスキルを計画し、現実の環境で複雑なタスクを解くためのフレームワークを提案する。
我々のフレームワークは3つのモジュールから構成されており、エージェントは以前に収集したデータから学習することができる。
複雑なタスクを解くのに必要なロボットアームでテストすることで、我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement Learning has received wide interest due to its success in
competitive games. Yet, its adoption in everyday applications is limited (e.g.
industrial, home, healthcare, etc.). In this paper, we address this limitation
by presenting a framework for planning over offline skills and solving complex
tasks in real-world environments. Our framework is comprised of three modules
that together enable the agent to learn from previously collected data and
generalize over it to solve long-horizon tasks. We demonstrate our approach by
testing it on a robotic arm that is required to solve complex tasks.
- Abstract(参考訳): 強化学習は競争ゲームの成功によって幅広い関心を集めている。
しかし、日常的な応用(例えば、産業、家庭、医療など)における採用は限られている。
本稿では,オフラインスキルよりも計画し,現実環境における複雑なタスクを解決するためのフレームワークを提案することで,この制限に対処する。
我々のフレームワークは3つのモジュールから構成されており、エージェントが以前に収集したデータから学習し、それを一般化して長期的タスクを解くことができる。
複雑なタスクを解決するのに必要なロボットアームでテストすることで,我々のアプローチを実証する。
関連論文リスト
- Hierarchical Subspaces of Policies for Continual Offline Reinforcement Learning [19.463863037999054]
自律型ロボット工学やビデオゲームシミュレーションのような動的ドメインでは、エージェントは、以前獲得したスキルを維持しながら、新しいタスクに継続的に適応する必要がある。
継続的強化学習(Continuous Reinforcement Learning)として知られるこの継続的なプロセスは、過去の知識を忘れるリスクを含む重要な課題を提示します。
オフラインナビゲーション設定における連続学習を目的とした新しいフレームワークであるHILOW(HIerarchical LOW-rank Subspaces of Policies)を紹介する。
論文 参考訳(メタデータ) (2024-12-19T14:00:03Z) - RoboMatrix: A Skill-centric Hierarchical Framework for Scalable Robot Task Planning and Execution in Open-World [18.998643114600053]
RoboMatrixは、スケーラブルなタスク計画と実行のためのスキル中心で階層的なフレームワークである。
まず、異なる複雑なタスクから共通のメタスキルを抽出する、新しいスキル中心のパラダイムを紹介します。
メタスキルを完全に活用するために,複雑なロボットタスクを3つの相互接続層に分離する階層型フレームワークを開発した。
論文 参考訳(メタデータ) (2024-11-29T17:36:03Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - LEAGUE: Guided Skill Learning and Abstraction for Long-Horizon
Manipulation [16.05029027561921]
タスク・アンド・モーション・プランニングのアプローチは、長期にわたるタスクの解決と一般化に長けている。
彼らは事前に定義されたスキルセットを仮定し、現実世界のアプリケーションを制限する。
本稿ではLEAGUEというタスク計画とスキル学習フレームワークを提案する。
学習スキルは、新しいタスク領域での学習を加速し、物理的なロボットプラットフォームに移行するために再利用できることを示す。
論文 参考訳(メタデータ) (2022-10-23T06:57:05Z) - Generalization with Lossy Affordances: Leveraging Broad Offline Data for
Learning Visuomotor Tasks [65.23947618404046]
本研究では,広範囲なデータを用いたオフライン強化学習を通じて,時間的拡張タスクの目標条件付きポリシを取得するフレームワークを提案する。
新たなタスク目標に直面した場合、フレームワークは余裕モデルを使用して、元のタスクをより簡単な問題に分解するサブゴールとして、損失のある表現のシーケンスを計画する。
我々は,従来の作業からロボット体験の大規模データセットを事前学習し,手動の報酬工学を使わずに視覚入力から,新しいタスクを効率的に微調整できることを実証した。
論文 参考訳(メタデータ) (2022-10-12T21:46:38Z) - Environment Generation for Zero-Shot Compositional Reinforcement
Learning [105.35258025210862]
環境構成設計(CoDE)は、ジェネレータエージェントを訓練し、エージェントの現在のスキルレベルに合わせて一連の構成タスクを自動的に構築する。
我々は,複数のページや部屋からなる環境を生成することを学び,それらの環境において複雑なタスクを広範囲にこなせるRLエージェントを訓練する。
CoDEは最強のベースラインよりも4倍高い成功率を示し、3500のプリミティブタスクで学んだ実際のWebサイトのパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-01-21T21:35:01Z) - COG: Connecting New Skills to Past Experience with Offline Reinforcement
Learning [78.13740204156858]
我々は、動的プログラミングによって新しいスキルを拡張するために、事前データを再利用できることを示します。
我々は、新しいタスクを解決するために、以前のデータセットに見られるいくつかの動作をチェーンすることで、アプローチの有効性を実証する。
我々は、高次元画像観察を低レベルのロボット制御コマンドにマッピングし、エンドツーエンドでポリシーを訓練する。
論文 参考訳(メタデータ) (2020-10-27T17:57:29Z) - A Composable Specification Language for Reinforcement Learning Tasks [23.08652058034537]
本稿では,複雑な制御タスクを特定するための言語と,言語仕様を報酬関数にコンパイルし,報酬形成を自動的に行うアルゴリズムを提案する。
我々は、SPECTRLと呼ばれるツールにアプローチを実装し、最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-21T03:40:57Z) - Offline Reinforcement Learning: Tutorial, Review, and Perspectives on
Open Problems [108.81683598693539]
オフラインの強化学習アルゴリズムは、巨大なデータセットを強力な意思決定エンジンにできるという、大きな約束を持っています。
我々は,これらの課題,特に近代的な深層強化学習手法の文脈において,読者にこれらの課題を理解することを目的としている。
論文 参考訳(メタデータ) (2020-05-04T17:00:15Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。