論文の概要: Syllabus: Portable Curricula for Reinforcement Learning Agents
- arxiv url: http://arxiv.org/abs/2411.11318v1
- Date: Mon, 18 Nov 2024 06:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:41.611850
- Title: Syllabus: Portable Curricula for Reinforcement Learning Agents
- Title(参考訳): Syllabus:強化学習エージェントのためのポータブルカリキュラム
- Authors: Ryan Sullivan, Ryan Pégoud, Ameen Ur Rahmen, Xinchen Yang, Junyun Huang, Aayush Verma, Nistha Mitra, John P. Dickerson,
- Abstract要約: Syllabusは、カリキュラム学習でRLエージェントを訓練するためのライブラリである。
Syllabusはカリキュラム学習アルゴリズムのためのユニバーサルAPIを提供する。
本稿では,NetHackとNeural MMOにおけるカリキュラム学習の最初の例を示す。
- 参考スコア(独自算出の注目度): 21.20246467152236
- License:
- Abstract: Curriculum learning has been a quiet yet crucial component of many of the high-profile successes of reinforcement learning. Despite this, none of the major reinforcement learning libraries directly support curriculum learning or include curriculum learning implementations. These methods can improve the capabilities and robustness of RL agents, but often require significant, complex changes to agent training code. We introduce Syllabus, a library for training RL agents with curriculum learning, as a solution to this problem. Syllabus provides a universal API for curriculum learning algorithms, implementations of popular curriculum learning methods, and infrastructure for easily integrating them with distributed training code written in nearly any RL library. Syllabus provides a minimal API for each of the core components of curriculum learning, dramatically simplifying the process of designing new algorithms and applying existing algorithms to new environments. We demonstrate that the same Syllabus code can be used to train agents written in multiple different RL libraries on numerous domains. In doing so, we present the first examples of curriculum learning in NetHack and Neural MMO, two of the premier challenges for single-agent and multi-agent RL respectively, achieving strong results compared to state of the art baselines.
- Abstract(参考訳): カリキュラム学習は、強化学習の成功の多くにおいて、静かだが重要な要素である。
それにもかかわらず、主要な強化学習ライブラリは、カリキュラム学習を直接サポートしたり、カリキュラム学習の実装を含まない。
これらの手法は、RLエージェントの能力と堅牢性を改善することができるが、エージェントトレーニングコードに大きな、複雑な変更を必要とすることが多い。
本稿では,RLエージェントをカリキュラム学習で訓練するためのライブラリであるSyllabusを紹介する。
Syllabusは、カリキュラム学習アルゴリズム、人気のあるカリキュラム学習方法の実装、ほぼすべてのRLライブラリで記述された分散トレーニングコードと簡単に統合するためのインフラストラクチャのための普遍的なAPIを提供する。
Syllabusはカリキュラム学習のコアコンポーネントごとに最小限のAPIを提供し、新しいアルゴリズムを設計し、既存のアルゴリズムを新しい環境に適用するプロセスを劇的に単純化する。
同一のSyllabusコードは、複数の異なるRLライブラリで書かれたエージェントを多数のドメインでトレーニングするために使用できることを示す。
本稿では,NetHackとNeural MMOにおけるカリキュラム学習の初歩的な例を示す。
関連論文リスト
- An Introduction to Reinforcement Learning: Fundamental Concepts and Practical Applications [3.1699526199304007]
強化学習(Reinforcement Learning, RL)は、人工知能(AI)の一分野であり、累積報酬を最大化するために環境と対話して意思決定を行うための訓練エージェントに焦点を当てている。
本稿では,その中核となる概念,方法論,最近の傾向,学習資源について概説する。
論文 参考訳(メタデータ) (2024-08-13T23:08:06Z) - Self-Supervised Curriculum Generation for Autonomous Reinforcement
Learning without Task-Specific Knowledge [25.168236693829783]
現在の強化学習アルゴリズムを現実世界のシナリオに適用する際の大きなボトルネックは、各エピソード間の環境をリセットする必要があることである。
本稿では,タスク固有の知識を使わずにエージェントの学習進捗に適応したカリキュラムを生成する新しいARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:40:10Z) - Dynamic Task and Weight Prioritization Curriculum Learning for
Multimodal Imagery [0.5439020425819]
本稿では,カリキュラム学習法を訓練したマルチモーダル深層学習モデルを用いたディザスタ後の分析について検討する。
カリキュラム学習は、ますます複雑なデータに基づいてディープラーニングモデルを訓練することにより、人間の教育における進歩的な学習シーケンスをエミュレートする。
論文 参考訳(メタデータ) (2023-10-29T18:46:33Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Jump-Start Reinforcement Learning [68.82380421479675]
本稿では、オフラインデータやデモ、あるいは既存のポリシーを使ってRLポリシーを初期化するメタアルゴリズムを提案する。
特に,タスク解決に2つのポリシーを利用するアルゴリズムであるJump-Start Reinforcement Learning (JSRL)を提案する。
実験により、JSRLは既存の模倣と強化学習アルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:25:22Z) - SaLinA: Sequential Learning of Agents [13.822224899460656]
SaLinAは、強化学習アルゴリズムを含む複雑な逐次学習モデルの実装を容易にするライブラリである。
SALINAでコード化されたアルゴリズムは、PyTorchユーザによって数分で理解でき、簡単に修正できる。
論文 参考訳(メタデータ) (2021-10-15T07:50:35Z) - Learning Multi-Objective Curricula for Deep Reinforcement Learning [55.27879754113767]
深部強化学習(DRL)のサンプル効率と最終性能を向上させるために,各種自動カリキュラム学習(ACL)手法が提案されている。
本稿では,多目的だがコヒーレントなカリキュラムを作成するための統合された自動カリキュラム学習フレームワークを提案する。
既存の手設計のカリキュラムパラダイムに加えて,抽象カリキュラムを学習するためのフレキシブルなメモリ機構を設計する。
論文 参考訳(メタデータ) (2021-10-06T19:30:25Z) - Solo-learn: A Library of Self-supervised Methods for Visual
Representation Learning [83.02597612195966]
solo-learnは視覚表現学習のための自己指導型のメソッドのライブラリである。
Pythonで実装され、PytorchとPytorch Lightningを使用して、このライブラリは研究と業界のニーズの両方に適合する。
論文 参考訳(メタデータ) (2021-08-03T22:19:55Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - Meta Automatic Curriculum Learning [35.13646854355393]
メタACLの概念を導入し,それをブラックボックスRL学習者の文脈で形式化する。
本稿では,メタACLの初回インスタンス化であるAGAINについて述べる。
論文 参考訳(メタデータ) (2020-11-16T14:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。