論文の概要: Safe Multi-Agent Interaction through Robust Control Barrier Functions
with Learned Uncertainties
- arxiv url: http://arxiv.org/abs/2004.05273v2
- Date: Tue, 22 Sep 2020 18:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:18:31.685625
- Title: Safe Multi-Agent Interaction through Robust Control Barrier Functions
with Learned Uncertainties
- Title(参考訳): 学習不確実性を有するロバスト制御障壁関数による安全なマルチエージェント相互作用
- Authors: Richard Cheng, Mohammad Javad Khojasteh, Aaron D. Ames, and Joel W.
Burdick
- Abstract要約: マルチエージェント制御バリア関数(CBF)は、マルチエージェント環境における安全性を保証するための計算効率の高いツールとして登場した。
この研究は、行列-変数ガウス過程モデルを用いて、これらの動的不確実性に対する高信頼境界を学習することを目的としている。
結果のmin-maxロバストCBFを2次プログラムに変換し、リアルタイムに効率よく解けるようにする。
- 参考スコア(独自算出の注目度): 36.587645093055926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots operating in real world settings must navigate and maintain safety
while interacting with many heterogeneous agents and obstacles. Multi-Agent
Control Barrier Functions (CBF) have emerged as a computationally efficient
tool to guarantee safety in multi-agent environments, but they assume perfect
knowledge of both the robot dynamics and other agents' dynamics. While
knowledge of the robot's dynamics might be reasonably well known, the
heterogeneity of agents in real-world environments means there will always be
considerable uncertainty in our prediction of other agents' dynamics. This work
aims to learn high-confidence bounds for these dynamic uncertainties using
Matrix-Variate Gaussian Process models, and incorporates them into a robust
multi-agent CBF framework. We transform the resulting min-max robust CBF into a
quadratic program, which can be efficiently solved in real time. We verify via
simulation results that the nominal multi-agent CBF is often violated during
agent interactions, whereas our robust formulation maintains safety with a much
higher probability and adapts to learned uncertainties
- Abstract(参考訳): 現実の環境で動作しているロボットは、多くの異種エージェントや障害物と対話しながら、安全をナビゲートし維持する必要がある。
マルチエージェント制御バリア関数(CBF)は、マルチエージェント環境における安全性を保証するための計算効率のよいツールとして登場したが、ロボット力学と他のエージェントのダイナミクスの双方について完全な知識を前提としている。
ロボットの力学の知識は合理的に知られているかもしれないが、現実の環境におけるエージェントの不均一性は、他のエージェントの力学の予測には常にかなりの不確実性が存在することを意味する。
本研究の目的は,マトリックス-可変ガウスプロセスモデルを用いて,これらの動的不確実性に対する高信頼境界を学習し,堅牢なマルチエージェントCBFフレームワークに組み込むことである。
結果のmin-maxロバストCBFを2次プログラムに変換し、リアルタイムに効率よく解けるようにする。
我々は,名目多エージェントCBFがエージェント間相互作用においてしばしば違反されることをシミュレーションにより検証し,ロバストな定式化はより高い確率で安全性を維持し,学習された不確実性に適応することを示す。
関連論文リスト
- DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Learning Adaptive Safety for Multi-Agent Systems [14.076785738848924]
CBF構成により創発的行動が深く影響されることを示す。
本稿では、安全性と長期性能を高めるために、新しい適応型安全なRLフレームワークであるASRLを提案する。
ASRLをマルチロボットシステムと競合するマルチエージェントレースシナリオで評価する。
論文 参考訳(メタデータ) (2023-09-19T14:39:39Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Risk-aware Safe Control for Decentralized Multi-agent Systems via
Dynamic Responsibility Allocation [36.52509571098292]
我々は,個別のエージェントが他者との衝突を避けるためにどの程度の責任を負うべきかに関するガイダンスを提供する,リスク対応の分散制御フレームワークを提案する。
本研究では,移動不確実性下での衝突により発生する危険物質を特徴付けるために,新しい制御バリア関数(CBF)によるリスク測定を提案する。
ロボットの柔軟性を低いリスクで活用し、より高いリスクを持つ人の動きの柔軟性を向上させることで、集団安全性を向上させることができる。
論文 参考訳(メタデータ) (2023-05-22T20:21:49Z) - Scalable Task-Driven Robotic Swarm Control via Collision Avoidance and
Learning Mean-Field Control [23.494528616672024]
我々は、最先端平均場制御技術を用いて、多くのエージェントSwarm制御を分散の古典的な単一エージェント制御に変換する。
そこで我々は,衝突回避と平均場制御の学習を,知的ロボット群動作を牽引的に設計するための統一的な枠組みに統合する。
論文 参考訳(メタデータ) (2022-09-15T16:15:04Z) - ROMAX: Certifiably Robust Deep Multiagent Reinforcement Learning via
Convex Relaxation [32.091346776897744]
サイバー物理攻撃は、マルチエージェント強化学習の堅牢性に挑戦することができる。
我々は,他のエージェントの最悪のポリシー更新を推測するミニマックスMARL手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T16:18:35Z) - Towards Safe Control of Continuum Manipulator Using Shielded Multiagent
Reinforcement Learning [1.2647816797166165]
ロボットの制御は、MADQNフレームワークにおける1つのエージェント問題である1-DoFとして定式化され、学習効率が向上する。
シールドされたMADQNにより、ロボットは外部負荷下で、サブミリ単位のルート平均二乗誤差で点と軌道追跡を行うことができた。
論文 参考訳(メタデータ) (2021-06-15T05:55:05Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。