論文の概要: CH-MARL: Constrained Hierarchical Multiagent Reinforcement Learning for Sustainable Maritime Logistics
- arxiv url: http://arxiv.org/abs/2502.02060v1
- Date: Tue, 04 Feb 2025 07:13:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:57:09.930056
- Title: CH-MARL: Constrained Hierarchical Multiagent Reinforcement Learning for Sustainable Maritime Logistics
- Title(参考訳): CH-MARL:持続可能な海洋ロジスティックスのための階層型マルチエージェント強化学習
- Authors: Saad Alqithami,
- Abstract要約: CH-MARLは階層的意思決定と動的制約執行と公正な報酬形成を統合している。
模擬海洋ロジスティクス環境で行った実験は、排出をかなり減少させることを示した。
CH-MARLは、マルチエージェント調整課題に対するスケーラブルで一般化可能なソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Addressing global challenges such as greenhouse gas emissions and resource inequity demands advanced AI-driven coordination among autonomous agents. We propose CH-MARL (Constrained Hierarchical Multiagent Reinforcement Learning), a novel framework that integrates hierarchical decision-making with dynamic constraint enforcement and fairness-aware reward shaping. CH-MARL employs a real-time constraint-enforcement layer to ensure adherence to global emission caps, while incorporating fairness metrics that promote equitable resource distribution among agents. Experiments conducted in a simulated maritime logistics environment demonstrate considerable reductions in emissions, along with improvements in fairness and operational efficiency. Beyond this domain-specific success, CH-MARL provides a scalable, generalizable solution to multi-agent coordination challenges in constrained, dynamic settings, thus advancing the state of the art in reinforcement learning.
- Abstract(参考訳): 温室効果ガスの排出や資源不平等といった世界的な課題に対処するためには、自律エージェント間のAI主導の調整が求められている。
本稿では、階層的意思決定と動的制約執行と公正な報酬形成を統合した新しいフレームワークであるCH-MARL(Constrained Hierarchical Multiagent Reinforcement Learning)を提案する。
CH-MARLは、エージェント間の公平なリソース分配を促進する公平度指標を取り入れながら、グローバルエミッションキャップの遵守を確保するために、リアルタイムの制約強化層を使用している。
模擬海洋ロジスティクス環境で行った実験は、公正性と運用効率の改善とともに、排出量の大幅な削減を実証している。
このドメイン固有の成功に加えて、CH-MARLは制約付き動的設定におけるマルチエージェント協調課題に対するスケーラブルで一般化可能なソリューションを提供する。
関連論文リスト
- Safe Multi-Agent Reinforcement Learning with Convergence to Generalized Nash Equilibrium [6.169364905804677]
マルチエージェント強化学習(MARL)は協調作業において顕著な成功を収めた。
MARLエージェントを現実世界のアプリケーションにデプロイすることは、重大な安全性上の課題を示す。
我々は,エージェントが訪れるすべての状態において,安全要件を強制する,$textitstate-wise$制約付き安全なMARLの新たな理論的枠組みを提案する。
複雑な高次元システムにおける実践的展開のために、$textitMulti-Agent Dual Actor-Critic$ (MADAC)を提案する。
論文 参考訳(メタデータ) (2024-11-22T16:08:42Z) - Agentic LLMs in the Supply Chain: Towards Autonomous Multi-Agent Consensus-Seeking [39.373512037111155]
大規模言語モデル(LLM)はサプライチェーン管理(SCM)におけるコンセンサス検索を自動化する
従来のSCMは、ブルウィップ効果のような創発的な問題を避けるために、意思決定における人間のコンセンサスに依存している。
ジェネレーティブAI、特にLLMの最近の進歩は、これらの障壁を克服する約束を示している。
論文 参考訳(メタデータ) (2024-11-15T13:33:10Z) - Vision-Language Navigation with Energy-Based Policy [66.04379819772764]
視覚言語ナビゲーション(VLN)は、人間の指示に従って行動を実行するエージェントを必要とする。
共同状態-行動分布をモデル化するためのエネルギーベースナビゲーションポリシー(ENP)を提案する。
ENPはR2R、REVERIE、RxR、R2R-CEで有望なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-18T08:01:36Z) - ComaDICE: Offline Cooperative Multi-Agent Reinforcement Learning with Stationary Distribution Shift Regularization [11.620274237352026]
オフライン強化学習(RL)は、事前に収集されたデータセットから効果的なポリシーを学習する能力において、大きな注目を集めている。
MARLは、大きな結合状態-作用空間とマルチエージェントの振る舞いの複雑さにより、さらなる課題を提起する。
定常分布空間に正規化器を導入し、分布シフトをよりよく処理する。
論文 参考訳(メタデータ) (2024-10-02T18:56:10Z) - Hierarchical Consensus-Based Multi-Agent Reinforcement Learning for Multi-Robot Cooperation Tasks [17.914928652949314]
階層型合意に基づくマルチエージェント強化学習(HC-MARL)フレームワークを導入し,その限界に対処する。
HC-MARLは、エージェント間のグローバルコンセンサスを促進するために対照的な学習を採用し、直接のコミュニケーションなしに協調行動を可能にする。
様々なタスクの動的な要求を満たすために、コンセンサスを複数の層に分割し、短期的および長期的考慮を包含する。
論文 参考訳(メタデータ) (2024-07-11T03:55:55Z) - The Synergy Between Optimal Transport Theory and Multi-Agent
Reinforcement Learning [53.88428902493129]
本稿では、最適輸送理論とマルチエージェント強化学習(MARL)の統合について検討する。
OTがMARLに影響を与える5つの重要な領域がある。
本稿では,OTとMARLの相乗効果がスケーラビリティ問題にどのように対処できるかを述べる。
論文 参考訳(メタデータ) (2024-01-18T19:34:46Z) - Semantically Aligned Task Decomposition in Multi-Agent Reinforcement
Learning [56.26889258704261]
我々は,MARL(SAMA)における意味的アライズされたタスク分解という,新しい「不整合」意思決定手法を提案する。
SAMAは、潜在的な目標を示唆し、適切な目標分解とサブゴールアロケーションを提供するとともに、自己回帰に基づくリプランニングを提供する、チェーン・オブ・シントによる事前訓練された言語モデルを促進する。
SAMAは, 最先端のASG法と比較して, 試料効率に有意な優位性を示す。
論文 参考訳(メタデータ) (2023-05-18T10:37:54Z) - Inducing Stackelberg Equilibrium through Spatio-Temporal Sequential
Decision-Making in Multi-Agent Reinforcement Learning [17.101534531286298]
我々は、すべてのエージェントが共有する条件付きハイパーネットワークに基づいて、ナッシュレベルのポリシーモデルを構築する。
このアプローチは対称的実行を伴う非対称なトレーニングを可能にし、各エージェントは、上位エージェントによる決定に最適な条件で応答する。
実験により,本手法は繰り返し行列ゲームシナリオにおいて,SEポリシーに効果的に収束することを示した。
論文 参考訳(メタデータ) (2023-04-20T14:47:54Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Locality Matters: A Scalable Value Decomposition Approach for
Cooperative Multi-Agent Reinforcement Learning [52.7873574425376]
協調型マルチエージェント強化学習(MARL)は,エージェント数で指数関数的に大きい状態空間と動作空間により,スケーラビリティの問題に直面する。
本稿では,学習分散実行パラダイムに局所報酬を組み込んだ,新しい価値に基づくマルチエージェントアルゴリズム LOMAQ を提案する。
論文 参考訳(メタデータ) (2021-09-22T10:08:15Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。