論文の概要: PantheonRL: A MARL Library for Dynamic Training Interactions
- arxiv url: http://arxiv.org/abs/2112.07013v1
- Date: Mon, 13 Dec 2021 21:08:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 15:20:07.951076
- Title: PantheonRL: A MARL Library for Dynamic Training Interactions
- Title(参考訳): PantheonRL:動的トレーニングインタラクションのためのMARLライブラリ
- Authors: Bidipta Sarkar, Aditi Talati, Andy Shih, Dorsa Sadigh
- Abstract要約: PantheonRLは動的トレーニングインタラクションのためのマルチエージェント強化学習ソフトウェアパッケージである。
私たちのパッケージは、異なるトレーニングインタラクションをサポートするように簡単に構成できるフレキシブルなエージェントオブジェクトを中心に設計されています。
PantheonRLには、実験の設定と複数の非同期ジョブの起動のための直感的で機能的なWebユーザインターフェースが付属している。
- 参考スコア(独自算出の注目度): 11.166809203818781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PantheonRL, a multiagent reinforcement learning software package
for dynamic training interactions such as round-robin, adaptive, and ad-hoc
training. Our package is designed around flexible agent objects that can be
easily configured to support different training interactions, and handles fully
general multiagent environments with mixed rewards and n agents. Built on top
of StableBaselines3, our package works directly with existing powerful deep RL
algorithms. Finally, PantheonRL comes with an intuitive yet functional web user
interface for configuring experiments and launching multiple asynchronous jobs.
Our package can be found at https://github.com/Stanford-ILIAD/PantheonRL.
- Abstract(参考訳): ラウンドロビン,適応,アドホックトレーニングなどの動的トレーニングインタラクションのためのマルチエージェント強化学習ソフトウェアであるPantheonRLを提案する。
我々のパッケージは、異なるトレーニングインタラクションをサポートするように簡単に構成できるフレキシブルエージェントオブジェクトを中心に設計されており、報酬とnエージェントを混合した完全な汎用マルチエージェント環境を処理する。
StableBaselines3の上に構築された当社のパッケージは、既存の強力なディープRLアルゴリズムと直接連携します。
最後に、pantheonrlには直感的で機能的なwebユーザインターフェースが付属しており、実験の設定と複数の非同期ジョブの起動が可能だ。
私たちのパッケージはhttps://github.com/Stanford-ILIAD/PantheonRL.comで確認できます。
関連論文リスト
- OpenRL: A Unified Reinforcement Learning Framework [19.12129820612253]
先進的な強化学習(RL)フレームワークであるOpenRLを紹介する。
シングルエージェントの課題から複雑なマルチエージェントシステムまで、さまざまなタスクに対応するように設計されている。
自然言語処理(NLP)とRLを統合することで、研究者はRLトレーニングと言語中心のタスクを効果的に組み合わせることができる。
論文 参考訳(メタデータ) (2023-12-20T12:04:06Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - High Performance Simulation for Scalable Multi-Agent Reinforcement
Learning [1.675857332621569]
高性能エージェントベースモデル(ABM)フレームワークであるVogueの使用を実演する。
Vogueはマルチエージェントのトレーニング環境として機能し、数千から数万の対話エージェントをサポートする。
これらの環境は、時間スケールの分と時間で共有RLポリシーを訓練できることを示す。
論文 参考訳(メタデータ) (2022-07-08T14:54:06Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Godot Reinforcement Learning Agents [10.413185820687021]
Godot RL Agentsインターフェースは、挑戦的な2Dおよび3D環境におけるエージェントの動作の設計、生成、学習を可能にする。
このフレームワークは、研究者やゲームデザイナが、離散的、連続的、混合的なアクション空間を持つ環境を作成できる汎用的なツールである。
論文 参考訳(メタデータ) (2021-12-07T11:24:34Z) - Amazon SageMaker Model Parallelism: A General and Flexible Framework for
Large Model Training [10.223511922625065]
PyTorchと統合したソフトウェアライブラリであるAmazon SageMakerモデル並列性について紹介する。
モデル並列性やその他のメモリ節約機能を使って、大規模なモデルのトレーニングを容易にする。
GPT-3,RoBERTa,BERT,ニューラルコラボレーティブフィルタの性能評価を行った。
論文 参考訳(メタデータ) (2021-11-10T22:30:21Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Integrating Distributed Architectures in Highly Modular RL Libraries [4.297070083645049]
ほとんどの人気のある強化学習ライブラリは、高度にモジュール化されたエージェントの構成性を主張している。
本稿では、RLエージェントを独立した再利用可能なコンポーネントによって異なるスケールで定義できる汎用的アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-06T10:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。