論文の概要: Risk-aware Safe Control for Decentralized Multi-agent Systems via
Dynamic Responsibility Allocation
- arxiv url: http://arxiv.org/abs/2305.13467v1
- Date: Mon, 22 May 2023 20:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 20:51:06.281612
- Title: Risk-aware Safe Control for Decentralized Multi-agent Systems via
Dynamic Responsibility Allocation
- Title(参考訳): 動的責任割当による分散マルチエージェントシステムのリスクアウェアセーフ制御
- Authors: Yiwei Lyu, Wenhao Luo and John M. Dolan
- Abstract要約: 我々は,個別のエージェントが他者との衝突を避けるためにどの程度の責任を負うべきかに関するガイダンスを提供する,リスク対応の分散制御フレームワークを提案する。
本研究では,移動不確実性下での衝突により発生する危険物質を特徴付けるために,新しい制御バリア関数(CBF)によるリスク測定を提案する。
ロボットの柔軟性を低いリスクで活用し、より高いリスクを持つ人の動きの柔軟性を向上させることで、集団安全性を向上させることができる。
- 参考スコア(独自算出の注目度): 36.52509571098292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized control schemes are increasingly favored in various domains
that involve multi-agent systems due to the need for computational efficiency
as well as general applicability to large-scale systems. However, in the
absence of an explicit global coordinator, it is hard for distributed agents to
determine how to efficiently interact with others. In this paper, we present a
risk-aware decentralized control framework that provides guidance on how much
relative responsibility share (a percentage) an individual agent should take to
avoid collisions with others while moving efficiently without direct
communications. We propose a novel Control Barrier Function (CBF)-inspired risk
measurement to characterize the aggregate risk agents face from potential
collisions under motion uncertainty. We use this measurement to allocate
responsibility shares among agents dynamically and develop risk-aware
decentralized safe controllers. In this way, we are able to leverage the
flexibility of robots with lower risk to improve the motion flexibility for
those with higher risk, thus achieving improved collective safety. We
demonstrate the validity and efficiency of our proposed approach through two
examples: ramp merging in autonomous driving and a multi-agent
position-swapping game.
- Abstract(参考訳): 分散制御スキームは、計算効率と大規模システムへの適用性の必要性から、マルチエージェントシステムを含む様々な領域でますます好まれている。
しかし,グローバルコーディネータが存在しない場合,分散エージェントが他者と効率的に対話する方法を決定することは困難である。
本稿では,直接通信を使わずに効率的に移動しながら,他者との衝突を避けるために,各エージェントがどの程度の相対的責任共有(パーセンテージ)を行うべきかのガイダンスを提供するリスク対応分散制御フレームワークを提案する。
動きの不確実性下での潜在的な衝突から対面する危険因子を特徴付けるために,新しい制御障壁関数(cbf)を用いたリスク測定を提案する。
この測定により,エージェント間の責任共有を動的に分担し,リスク対応型分散型セーフコントローラを開発した。
このようにして、ロボットの柔軟性を低いリスクで活用し、より高いリスクを持つ人の動きの柔軟性を改善し、集団安全性を向上させることができる。
提案手法の有効性と有効性は,自律走行におけるランプマージとマルチエージェント位置スワッピングゲームという2つの例を通して示す。
関連論文リスト
- RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value Factorization [49.26510528455664]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - DePAint: A Decentralized Safe Multi-Agent Reinforcement Learning Algorithm considering Peak and Average Constraints [1.1549572298362787]
本稿では,この問題を解決するために,モーメントに基づく分散勾配法DePaintを提案する。
これは、ピーク制約と平均制約の両方を考慮した、プライバシ保存で完全に分散化されたマルチエージェント強化学習アルゴリズムとしては初めてのものである。
論文 参考訳(メタデータ) (2023-10-22T16:36:03Z) - Learning Risk-Aware Quadrupedal Locomotion using Distributional Reinforcement Learning [12.156082576280955]
危険環境への展開には、ロボットが事故を防ぐための行動や動きに関連するリスクを理解する必要がある。
本稿では,分散強化学習を用いたリスクセンシティブな移動訓練手法を提案する。
シミュレーションおよび四足歩行ロボットANYmalにおいて,突発的リスクに敏感な移動行動を示す。
論文 参考訳(メタデータ) (2023-09-25T16:05:32Z) - Learning Adaptive Safety for Multi-Agent Systems [14.076785738848924]
CBF構成により創発的行動が深く影響されることを示す。
本稿では、安全性と長期性能を高めるために、新しい適応型安全なRLフレームワークであるASRLを提案する。
ASRLをマルチロボットシステムと競合するマルチエージェントレースシナリオで評価する。
論文 参考訳(メタデータ) (2023-09-19T14:39:39Z) - Learned Risk Metric Maps for Kinodynamic Systems [54.49871675894546]
本研究では,高次元力学系のコヒーレントリスクメトリクスをリアルタイムに推定するための学習型リスクメトリクスマップを提案する。
LRMMモデルは設計と訓練が簡単で、障害セットの手続き的生成、状態と制御のサンプリング、および関数近似器の教師付きトレーニングのみを必要とする。
論文 参考訳(メタデータ) (2023-02-28T17:51:43Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Learning Safe Multi-Agent Control with Decentralized Neural Barrier
Certificates [19.261536710315028]
エージェントが静的な障害物や衝突に対する衝突を避けて目標を達成すべきマルチエージェント安全制御問題について検討する。
私達の中心の考えは安全証明書として制御障壁機能を学ぶことと複数のエージェント制御方針を共同で学ぶことです。
本稿では,特定の関数クラスに対して一般化を保証し,分散的に実装可能な新しい共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-14T03:17:17Z) - Lyapunov-Based Reinforcement Learning for Decentralized Multi-Agent
Control [3.3788926259119645]
分散マルチエージェント制御では、システムは未知あるいは非常に不確実なダイナミクスで複雑である。
深層強化学習(DRL)は、システムダイナミクスを知らずに、データからコントローラや政治を学ぶことを約束している。
既存のマルチエージェント強化学習(MARL)アルゴリズムは、マルチエージェントシステムの閉ループ安定性を保証することができない。
安定保証付き分散マルチエージェント制御のための新しいMARLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-20T06:11:42Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。