論文の概要: BenchMARL: Benchmarking Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2312.01472v1
- Date: Sun, 3 Dec 2023 18:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 17:06:57.670252
- Title: BenchMARL: Benchmarking Multi-Agent Reinforcement Learning
- Title(参考訳): BenchMARL: マルチエージェント強化学習のベンチマーク
- Authors: Matteo Bettini, Amanda Prorok, Vincent Moens
- Abstract要約: BenchMARLは、さまざまなアルゴリズム、モデル、環境をまたいで標準化されたベンチマークを可能にする最初のトレーニングライブラリである。
BenchMARLはTorchRLをバックエンドとして使用し、高いパフォーマンスと最先端の実装を維持できる。
- 参考スコア(独自算出の注目度): 8.882477545707982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of Multi-Agent Reinforcement Learning (MARL) is currently facing a
reproducibility crisis. While solutions for standardized reporting have been
proposed to address the issue, we still lack a benchmarking tool that enables
standardization and reproducibility, while leveraging cutting-edge
Reinforcement Learning (RL) implementations. In this paper, we introduce
BenchMARL, the first MARL training library created to enable standardized
benchmarking across different algorithms, models, and environments. BenchMARL
uses TorchRL as its backend, granting it high performance and maintained
state-of-the-art implementations while addressing the broad community of MARL
PyTorch users. Its design enables systematic configuration and reporting, thus
allowing users to create and run complex benchmarks from simple one-line
inputs. BenchMARL is open-sourced on GitHub:
https://github.com/facebookresearch/BenchMARL
- Abstract(参考訳): マルチエージェント強化学習(MARL)の分野は現在再現性危機に直面している。
標準化されたレポートのソリューションはこの問題に対処するために提案されているが、最先端の強化学習(RL)実装を活用しながら、標準化と再現性を実現するベンチマークツールがまだ存在しない。
本稿では,異なるアルゴリズム,モデル,環境をまたいだ標準化ベンチマークを可能にするため,最初のMARLトレーニングライブラリであるBenchMARLを紹介する。
BenchMARLはTorchRLをバックエンドとして使用しており、MARL PyTorchユーザの幅広いコミュニティに対処しながら、高いパフォーマンスと最先端の実装を維持できる。
その設計は体系的な構成とレポートを可能にし、ユーザーは単純な1行入力から複雑なベンチマークを作成し、実行することができる。
benchmarlはgithubでオープンソースである。https://github.com/facebookresearch/benchmarl
関連論文リスト
- ERBench: An Entity-Relationship based Automatically Verifiable
Hallucination Benchmark for Large Language Models [48.38966595131693]
大規模言語モデル(LLM)は、様々なアプリケーションにおいて前例のない性能を達成したが、その評価は依然として重要な問題である。
既存のリレーショナルデータベースを利用することは、正確な知識記述のためにベンチマークを構築する上で有望なアプローチである、と我々は主張する。
本稿では,エンティティ・リレーショナル・モデル(ER)に基づいて,関係データベースを自動的にベンチマークに変換するERBenchを提案する。
論文 参考訳(メタデータ) (2024-03-08T12:42:36Z) - JaxMARL: Multi-Agent RL Environments in JAX [107.7560737385902]
我々は、使いやすさとGPU有効性を組み合わせた最初のオープンソースコードベースであるJaxMARLを紹介します。
私たちの実験によると、JAXベースのトレーニングパイプラインの実行は、既存のアプローチよりも最大で12500倍高速です。
また、人気のあるStarCraft Multi-Agent Challengeのベクトル化、単純化されたバージョンであるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - ML-Bench: Large Language Models Leverage Open-source Libraries for
Machine Learning Tasks [75.12666425091702]
大規模な言語モデルは、コード生成ベンチマークで有望なパフォーマンスを示している。
この研究は、LLMがオープンソースのライブラリを使用して機械学習タスクを終了する、新たな評価設定を提案することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - AlberDICE: Addressing Out-Of-Distribution Joint Actions in Offline
Multi-Agent RL via Alternating Stationary Distribution Correction Estimation [65.4532392602682]
オフライン強化学習(RL)の主な課題の1つは、データ収集ポリシーから逸脱した学習ポリシーから生じる分散シフトである。
これはしばしば、政策改善中のアウト・オブ・ディストリビューション(OOD)アクションを避けることで対処される。
本稿では,定常分布最適化に基づく個別エージェントの集中学習を行うオフラインMARLアルゴリズムAlberDICEを紹介する。
論文 参考訳(メタデータ) (2023-11-03T18:56:48Z) - RLTF: Reinforcement Learning from Unit Test Feedback [17.35361167578498]
Reinforcement Learning from Unit Test Feedback(リンク)は、新しいオンラインRLフレームワークである。
提案手法は,訓練中にリアルタイムにデータを生成し,高精度なフィードバック信号を用いて高品質なコードを生成する。
論文 参考訳(メタデータ) (2023-07-10T05:18:18Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - Off-the-Grid MARL: Datasets with Baselines for Offline Multi-Agent
Reinforcement Learning [4.159549932951023]
オフラインマルチエージェント強化学習(MARL)は、このようなデータセットから効果的な分散型コントローラを構築するための有望なパラダイムを提供する。
MARLはまだ初期段階であり、標準化されたベンチマークデータセットとベースラインがない。
OG-MARLは、協調的なオフラインMARL研究のためのベースラインを持つ高品質データセットのリポジトリである。
論文 参考訳(メタデータ) (2023-02-01T15:41:27Z) - MARLlib: A Scalable and Efficient Multi-agent Reinforcement Learning
Library [82.77446613763809]
本稿では,マルチエージェントタスクとアルゴリズムの組み合わせを高速に開発するためのライブラリであるMARLlibを紹介する。
MARLlibは、マルチエージェントタスクとアルゴリズムの学習過程を効果的に切り離すことができる。
ライブラリのソースコードはGitHubで公開されている。
論文 参考訳(メタデータ) (2022-10-11T03:11:12Z) - MBRL-Lib: A Modular Library for Model-based Reinforcement Learning [13.467075854633213]
PyTorchに基づく継続的ステートアクション空間におけるモデルベースの強化学習のための機械学習ライブラリであるMBRL-Libを紹介した。
研究者の双方にとって、新しいアルゴリズムを簡単に開発、デバッグ、比較し、専門家でないユーザーと組み合わせて、最先端のアルゴリズムのデプロイのエントリーバーを低くするプラットフォームとして設計されている。
論文 参考訳(メタデータ) (2021-04-20T17:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。