論文の概要: MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2407.16312v1
- Date: Tue, 23 Jul 2024 09:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 17:56:16.917505
- Title: MOMAland: A Set of Benchmarks for Multi-Objective Multi-Agent Reinforcement Learning
- Title(参考訳): MOMAland: 多目的マルチエージェント強化学習のためのベンチマークセット
- Authors: Florian Felten, Umut Ucak, Hicham Azmani, Gao Peng, Willem Röpke, Hendrik Baier, Patrick Mannion, Diederik M. Roijers, Jordan K. Terry, El-Ghazali Talbi, Grégoire Danoy, Ann Nowé, Roxana Rădulescu,
- Abstract要約: 多目的多エージェント強化学習(MOMARL)は、学習プロセスにおいて複数の目的を考慮する必要がある複数のエージェントによる問題に対処する。
MOAlandは、多目的マルチエージェント強化学習のための標準化された環境の最初のコレクションである。
- 参考スコア(独自算出の注目度): 7.822825134714791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many challenging tasks such as managing traffic systems, electricity grids, or supply chains involve complex decision-making processes that must balance multiple conflicting objectives and coordinate the actions of various independent decision-makers (DMs). One perspective for formalising and addressing such tasks is multi-objective multi-agent reinforcement learning (MOMARL). MOMARL broadens reinforcement learning (RL) to problems with multiple agents each needing to consider multiple objectives in their learning process. In reinforcement learning research, benchmarks are crucial in facilitating progress, evaluation, and reproducibility. The significance of benchmarks is underscored by the existence of numerous benchmark frameworks developed for various RL paradigms, including single-agent RL (e.g., Gymnasium), multi-agent RL (e.g., PettingZoo), and single-agent multi-objective RL (e.g., MO-Gymnasium). To support the advancement of the MOMARL field, we introduce MOMAland, the first collection of standardised environments for multi-objective multi-agent reinforcement learning. MOMAland addresses the need for comprehensive benchmarking in this emerging field, offering over 10 diverse environments that vary in the number of agents, state representations, reward structures, and utility considerations. To provide strong baselines for future research, MOMAland also includes algorithms capable of learning policies in such settings.
- Abstract(参考訳): 交通システム、電力網、サプライチェーンの管理といった困難なタスクの多くは、複数の競合する目標をバランスさせ、様々な独立した意思決定者(DM)の行動を調整する必要がある複雑な意思決定プロセスを含む。
このようなタスクの形式化と対処の1つの視点は、多目的マルチエージェント強化学習(MOMARL)である。
MOMARLは強化学習(RL)を、学習プロセスにおいて複数の目的を考える必要がある複数のエージェントの問題に拡張する。
強化学習研究において、ベンチマークは進歩、評価、再現性を促進するために不可欠である。
ベンチマークの重要性は、シングルエージェントRL(e g , Gymnasium)、マルチエージェントRL(e g , PettingZoo)、シングルエージェントマルチオブジェクトRL(e g , MO-Gymnasium)など、さまざまなRLパラダイム向けに開発された多数のベンチマークフレームワークの存在によって裏付けられている。
MOMARL分野の進歩を支援するため,多目的マルチエージェント強化学習のための最初の標準化環境であるMOMAlandを紹介した。
MOMAlandはこの新興分野における総合的なベンチマークの必要性に対処し、エージェントの数、状態表現、報酬構造、ユーティリティを考慮した10以上の多様な環境を提供する。
将来の研究のための強力なベースラインを提供するため、MOMAlandはそのような設定でポリシーを学習できるアルゴリズムも含んでいる。
関連論文リスト
- Enhancing Heterogeneous Multi-Agent Cooperation in Decentralized MARL via GNN-driven Intrinsic Rewards [1.179778723980276]
MARL(Multi-agent Reinforcement Learning)は、シーケンシャルな意思決定と制御タスクの鍵となるフレームワークである。
これらのシステムを現実のシナリオに展開するには、分散トレーニング、多様なエージェントセット、そして頻繁な環境報酬信号から学ぶ必要がある。
我々は,新しいグラフニューラルネットワーク(GNN)に基づく本質的なモチベーションを利用して,異種エージェントポリシーの学習を容易にするCoHetアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-12T21:38:40Z) - Needle In A Multimodal Haystack [79.81804334634408]
本稿では,従来のMLLMの長大なマルチモーダル文書の理解能力を評価するために設計された,最初のベンチマークを示す。
我々のベンチマークには、マルチモーダル検索、カウント、推論の3種類の評価タスクが含まれている。
既存のモデルには、これらのタスク、特に視覚中心の評価において、改善の余地がまだ残っていることを観察する。
論文 参考訳(メタデータ) (2024-06-11T13:09:16Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Federated Multi-Objective Learning [22.875284692358683]
複数のクライアントを用いたFMOL(Federated Multi-Objective Learning)フレームワークを提案する。
私たちのFMOLフレームワークは、異なるクライアント間で異なる目的関数セットを提供し、幅広いアプリケーションをサポートします。
本フレームワークでは,FSMGDA (Federated Multi-gradient descent Averaging) とFSMGDA (Federated Multi-gradient descent Averaging) という2つの新しいFMOOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-15T15:45:51Z) - MM-BigBench: Evaluating Multimodal Models on Multimodal Content
Comprehension Tasks [56.60050181186531]
MM-BigBenchを導入し、様々なモデルや命令のパフォーマンスを広範囲に評価する。
本稿では,6タスクにまたがる14のマルチモーダルデータセット上で,20の言語モデル (14 MLLM) を評価し,各タスクに10の指示を与え,新しい洞察を導き出す。
論文 参考訳(メタデータ) (2023-10-13T11:57:04Z) - A Versatile Multi-Agent Reinforcement Learning Benchmark for Inventory
Management [16.808873433821464]
マルチエージェント強化学習(MARL)は、共有環境内で対話し学習する複数のエージェントをモデル化する。
MARLを現実のシナリオに適用することは、スケールアップ、複雑なエージェントインタラクション、非定常ダイナミクスといった多くの課題によって妨げられます。
論文 参考訳(メタデータ) (2023-06-13T05:22:30Z) - CH-MARL: A Multimodal Benchmark for Cooperative, Heterogeneous
Multi-Agent Reinforcement Learning [15.686200550604815]
マルチルームホーム環境において,複数の模擬異種ロボット間の協調作業を含むタスクを含むベンチマークデータセットを提案する。
我々は、統合学習フレームワーク、最先端マルチエージェント強化学習技術のマルチモーダル実装、一貫した評価プロトコルを提供する。
論文 参考訳(メタデータ) (2022-08-26T02:21:31Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z) - A Unified Multi-task Learning Framework for Multi-goal Conversational
Recommender Systems [91.70511776167488]
MG-CRSには、ゴールプランニング、トピック予測、アイテムレコメンデーション、レスポンスジェネレーションの4つのタスクがある。
我々は,Unified MultI-goal conversational recommeNDerシステム,すなわちUniMINDを提案する。
マルチタスク学習能力を備えた統一モデルを実現するために,プロンプトに基づく学習戦略を検討した。
論文 参考訳(メタデータ) (2022-04-14T12:31:27Z) - Regularize! Don't Mix: Multi-Agent Reinforcement Learning without
Explicit Centralized Structures [8.883885464358737]
Em Multi-Agent Regularized Q-learning (MARQ) と呼ばれる明示的な協調構造を学習するのではなく、正規化を用いたマルチエージェント強化学習を提案する。
提案アルゴリズムは,複数のベンチマークマルチエージェント環境において評価され,MARQが複数のベースラインや最先端のアルゴリズムより一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-09-19T00:58:38Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。