論文の概要: The Synergy Between Optimal Transport Theory and Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.10949v1
- Date: Thu, 18 Jan 2024 19:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 18:56:20.666788
- Title: The Synergy Between Optimal Transport Theory and Multi-Agent
Reinforcement Learning
- Title(参考訳): 最適輸送理論とマルチエージェント強化学習の相乗効果
- Authors: Ali Baheri and and Mykel J. Kochenderfer
- Abstract要約: 本稿では、最適輸送理論とマルチエージェント強化学習(MARL)の統合について検討する。
OTがMARLに影響を与える5つの重要な領域がある。
本稿では,OTとMARLの相乗効果がスケーラビリティ問題にどのように対処できるかを述べる。
- 参考スコア(独自算出の注目度): 45.61179119058199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the integration of optimal transport (OT) theory with
multi-agent reinforcement learning (MARL). This integration uses OT to handle
distributions and transportation problems to enhance the efficiency,
coordination, and adaptability of MARL. There are five key areas where OT can
impact MARL: (1) policy alignment, where OT's Wasserstein metric is used to
align divergent agent strategies towards unified goals; (2) distributed
resource management, employing OT to optimize resource allocation among agents;
(3) addressing non-stationarity, using OT to adapt to dynamic environmental
shifts; (4) scalable multi-agent learning, harnessing OT for decomposing
large-scale learning objectives into manageable tasks; and (5) enhancing energy
efficiency, applying OT principles to develop sustainable MARL systems. This
paper articulates how the synergy between OT and MARL can address scalability
issues, optimize resource distribution, align agent policies in cooperative
environments, and ensure adaptability in dynamically changing conditions.
- Abstract(参考訳): 本稿では,最適輸送(ot)理論とマルチエージェント強化学習(marl)の統合について検討する。
この統合はOTを用いて分散と輸送の問題に対処し、MARLの効率性、調整性、適応性を向上させる。
There are five key areas where OT can impact MARL: (1) policy alignment, where OT's Wasserstein metric is used to align divergent agent strategies towards unified goals; (2) distributed resource management, employing OT to optimize resource allocation among agents; (3) addressing non-stationarity, using OT to adapt to dynamic environmental shifts; (4) scalable multi-agent learning, harnessing OT for decomposing large-scale learning objectives into manageable tasks; and (5) enhancing energy efficiency, applying OT principles to develop sustainable MARL systems.
本稿では, OTとMARLの相乗効果がスケーラビリティ問題にどう対処するか, 資源分布の最適化, 協調環境におけるエージェントポリシーの整合, 動的に変化する条件下での適応性確保について述べる。
関連論文リスト
- ComaDICE: Offline Cooperative Multi-Agent Reinforcement Learning with Stationary Distribution Shift Regularization [11.620274237352026]
オフライン強化学習(RL)は、事前に収集されたデータセットから効果的なポリシーを学習する能力において、大きな注目を集めている。
MARLは、大きな結合状態-作用空間とマルチエージェントの振る舞いの複雑さにより、さらなる課題を提起する。
定常分布空間に正規化器を導入し、分布シフトをよりよく処理する。
論文 参考訳(メタデータ) (2024-10-02T18:56:10Z) - Learning to Transfer for Evolutionary Multitasking [30.01466615418299]
進化的マルチタスク(EMT)は、マルチタスク最適化問題(MTOP)を解決するための新しいアプローチである。
暗黙のEMTにおける現在のアプローチは、限られた数の進化演算子を使用するため、適応性の課題に直面している。
本稿では,MTOPの効率的なKTポリシーを自動検出する新しいLearning to Transfer(L2T)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T14:31:24Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - On the Energy and Communication Efficiency Tradeoffs in Federated and
Multi-Task Learning [42.37180749113699]
マルチタスク学習(MTL)は、従来の伝達学習手法と比較して、タスク間の共通性を利用して効率を向上させる。
本稿では,MAML(Model-Agnostic Meta-Learning)パラダイムによって駆動され,分散無線ネットワークに実装されるMTLプロセスのエネルギーコストについて,初めて考察する。
論文 参考訳(メタデータ) (2022-12-02T09:40:17Z) - Low-rank Optimal Transport: Approximation, Statistics and Debiasing [51.50788603386766]
フロゼットボン2021ローランで提唱された低ランク最適輸送(LOT)アプローチ
LOTは興味のある性質と比較した場合、エントロピー正則化の正当な候補と見なされる。
本稿では,これらの領域のそれぞれを対象とし,計算OTにおける低ランクアプローチの影響を補強する。
論文 参考訳(メタデータ) (2022-05-24T20:51:37Z) - Learning to Share in Multi-Agent Reinforcement Learning [33.462384381980065]
ネットワーク型マルチエージェント強化学習(MARL)の問題点について検討する。
人間の協調学習において,テキスト共有が重要な役割を担っているという事実に着想を得て,LToSを提案する。
各エージェントに対して、高レベルの政策は、近隣の人たちと報酬を共有してグローバルな目的を分解する方法を学習し、低レベルの政策は、近隣の高レベルの政策によって誘導される局所的な目標を最適化することを学ぶ。
論文 参考訳(メタデータ) (2021-12-16T08:43:20Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。