論文の概要: MAD-PINN: A Decentralized Physics-Informed Machine Learning Framework for Safe and Optimal Multi-Agent Control
- arxiv url: http://arxiv.org/abs/2509.23960v1
- Date: Sun, 28 Sep 2025 16:31:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.55512
- Title: MAD-PINN: A Decentralized Physics-Informed Machine Learning Framework for Safe and Optimal Multi-Agent Control
- Title(参考訳): MAD-PINN: 安全かつ最適なマルチエージェント制御のための分散物理情報処理機械学習フレームワーク
- Authors: Manan Tayal, Aditya Singh, Shishir Kolathaya, Somil Bansal,
- Abstract要約: 大規模マルチエージェントシステムにおける安全性とパフォーマンスの最適化は、依然として根本的な課題である。
マルチエージェント状態制約最適制御問題を解くための分散機械学習フレームワークMAD-PINNを提案する。
マルチエージェントナビゲーションタスクの実験では、MAD-PINNは優れた安全性と性能のトレードオフを実現し、エージェントの数が増えるにつれてスケーラビリティを維持し、常に最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 13.531665564516155
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Co-optimizing safety and performance in large-scale multi-agent systems remains a fundamental challenge. Existing approaches based on multi-agent reinforcement learning (MARL), safety filtering, or Model Predictive Control (MPC) either lack strict safety guarantees, suffer from conservatism, or fail to scale effectively. We propose MAD-PINN, a decentralized physics-informed machine learning framework for solving the multi-agent state-constrained optimal control problem (MASC-OCP). Our method leverages an epigraph-based reformulation of SC-OCP to simultaneously capture performance and safety, and approximates its solution via a physics-informed neural network. Scalability is achieved by training the SC-OCP value function on reduced-agent systems and deploying them in a decentralized fashion, where each agent relies only on local observations of its neighbours for decision-making. To further enhance safety and efficiency, we introduce an Hamilton-Jacobi (HJ) reachability-based neighbour selection strategy to prioritize safety-critical interactions, and a receding-horizon policy execution scheme that adapts to dynamic interactions while reducing computational burden. Experiments on multi-agent navigation tasks demonstrate that MAD-PINN achieves superior safety-performance trade-offs, maintains scalability as the number of agents grows, and consistently outperforms state-of-the-art baselines.
- Abstract(参考訳): 大規模マルチエージェントシステムにおける安全性とパフォーマンスの最適化は、依然として根本的な課題である。
既存のマルチエージェント強化学習(MARL)、安全フィルタリング、モデル予測制御(MPC)に基づくアプローチは、厳格な安全保証を欠いているか、保守主義に悩まされているか、効果的にスケールできないかのいずれかである。
我々は,多エージェント状態制約最適制御問題(MASC-OCP)を解くための分散化物理情報処理機械学習フレームワークMAD-PINNを提案する。
本手法は,SC-OCPのエピグラフに基づく再構成を利用して,性能と安全性を同時に把握し,物理インフォームドニューラルネットワークを用いてその解を近似する。
拡張性は、SC-OCP値関数を縮小エージェントシステム上でトレーニングし、それらを分散的にデプロイすることで達成される。
安全性と効率をさらに高めるため,ハミルトン・ヤコビ(HJ)の到達可能性に基づく近接選択戦略を導入し,計算負荷を低減しつつ動的相互作用に適応する緩和水平政策実行手法を提案する。
マルチエージェントナビゲーションタスクの実験では、MAD-PINNは優れた安全性と性能のトレードオフを実現し、エージェントの数が増えるにつれてスケーラビリティを維持し、常に最先端のベースラインを上回っている。
関連論文リスト
- Vulnerable Agent Identification in Large-Scale Multi-Agent Reinforcement Learning [49.31650627835956]
システムがスケールアップすると、部分的なエージェントの障害は避けられないものとなり、全体的なパフォーマンスが著しく低下するエージェントのサブセットを特定することが重要になる。
本稿では,大規模マルチエージェント強化学習(MARL)における脆弱性エージェント識別(VAI)問題について検討する。
実験により, 大規模MARLおよびルールベースシステムにおいて, より脆弱なエージェントを効果的に同定し, システムを悪用し, それぞれのエージェントの脆弱性を明らかにする値関数を学習した。
論文 参考訳(メタデータ) (2025-09-18T16:03:50Z) - Scalable Safe Multi-Agent Reinforcement Learning for Multi-Agent System [1.0124625066746598]
報酬形成のみに依存する既存のマルチエージェント強化学習(MARL)アルゴリズムは、安全性を確保するのに有効ではない。
本稿では,MARL手法の安全性とスケーラビリティを高めるために,スケーラブルセーフMARL(Scalable Safe MARL)を提案する。
SS-MARLは,ベースラインに比べて最適性と安全性のトレードオフが良好であることを示し,そのスケーラビリティは多数のエージェントを持つシナリオにおいて,最新の手法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2025-01-23T15:01:19Z) - Think Smart, Act SMARL! Analyzing Probabilistic Logic Shields for Multi-Agent Reinforcement Learning [3.7957452405531265]
Shielded Multi-Agent Reinforcement Learning (SMARL)は、MARLを標準に準拠した結果にステアリングするための一般的なフレームワークである。
主なコントリビューションは次のとおりです。
Probabilistic Logic Temporal difference (PLTD) update for shielded, independent Q-learning;
MARLの形式的安全性を保証するシールド付きPPOの確率論的論理ポリシー勾配法
対称的および非対称的に遮蔽された$n$のプレイヤーゲーム理論ベンチマークを総合的に評価する。
論文 参考訳(メタデータ) (2024-11-07T16:59:32Z) - Learning Adaptive Safety for Multi-Agent Systems [14.076785738848924]
CBF構成により創発的行動が深く影響されることを示す。
本稿では、安全性と長期性能を高めるために、新しい適応型安全なRLフレームワークであるASRLを提案する。
ASRLをマルチロボットシステムと競合するマルチエージェントレースシナリオで評価する。
論文 参考訳(メタデータ) (2023-09-19T14:39:39Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Decentralized Safe Multi-agent Stochastic Optimal Control using Deep
FBSDEs and ADMM [16.312625634442092]
本稿では,障害発生時のマルチエージェント制御のための,安全でスケーラブルな分散ソリューションを提案する。
分散化は、各エージェントの最適化変数、コピー変数、隣人への拡張によって達成される。
安全なコンセンサスソリューションを実現するために,ADMMベースのアプローチを取り入れた。
論文 参考訳(メタデータ) (2022-02-22T03:57:23Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。