論文の概要: CaRT: Certified Safety and Robust Tracking in Learning-based Motion
Planning for Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2307.08602v2
- Date: Sun, 13 Aug 2023 20:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 19:13:52.916539
- Title: CaRT: Certified Safety and Robust Tracking in Learning-based Motion
Planning for Multi-Agent Systems
- Title(参考訳): CaRT:マルチエージェントシステムのための学習型運動計画における安全保証とロバスト追跡
- Authors: Hiroyasu Tsukamoto and Benjamin Rivi\`ere and Changrak Choi and Amir
Rahmani and Soon-Jo Chung
- Abstract要約: CaRTは、学習ベースのモーションプランニングポリシーの安全性と堅牢性を保証するために、新しい階層的な分散アーキテクチャである。
定性障害や有界障害があっても,CaRTは軌道追跡誤差の安全性と指数関数性を保証する。
本稿では, 非線形動作計画と制御問題のいくつかの例において, CaRTの有効性を実証する。
- 参考スコア(独自算出の注目度): 7.77024796789203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The key innovation of our analytical method, CaRT, lies in establishing a new
hierarchical, distributed architecture to guarantee the safety and robustness
of a given learning-based motion planning policy. First, in a nominal setting,
the analytical form of our CaRT safety filter formally ensures safe maneuvers
of nonlinear multi-agent systems, optimally with minimal deviation from the
learning-based policy. Second, in off-nominal settings, the analytical form of
our CaRT robust filter optimally tracks the certified safe trajectory,
generated by the previous layer in the hierarchy, the CaRT safety filter. We
show using contraction theory that CaRT guarantees safety and the exponential
boundedness of the trajectory tracking error, even under the presence of
deterministic and stochastic disturbance. Also, the hierarchical nature of CaRT
enables enhancing its robustness for safety just by its superior tracking to
the certified safe trajectory, thereby making it suitable for off-nominal
scenarios with large disturbances. This is a major distinction from
conventional safety function-driven approaches, where the robustness originates
from the stability of a safe set, which could pull the system
over-conservatively to the interior of the safe set. Our log-barrier
formulation in CaRT allows for its distributed implementation in multi-agent
settings. We demonstrate the effectiveness of CaRT in several examples of
nonlinear motion planning and control problems, including optimal,
multi-spacecraft reconfiguration.
- Abstract(参考訳): 分析手法であるcartの重要なイノベーションは、与えられた学習に基づくモーションプランニングポリシの安全性と堅牢性を保証するために、新しい階層的分散アーキテクチャを確立することです。
まず、名目上、我々のCaRT安全フィルタの分析形式は、学習ベースのポリシーから最小限の偏差で、非線形マルチエージェントシステムの安全な操作を正式に保証する。
第2に,オフノミナル環境では,cartロバストフィルタの解析形式が,先行層であるcartsafeフィルタによって生成された安全軌道を最適に追跡する。
本稿では,CaRTが軌道追従誤差の安全性と指数的有界性を保証することを,決定論的および確率的乱れの存在下においても,収縮理論を用いて示す。
また、cartの階層的な性質により、認証された安全軌道への優れた追跡によって安全性の堅牢性が向上し、大きな外乱を伴うオフノミナルシナリオに適している。
これは従来の安全機能駆動のアプローチとの大きな違いであり、ロバスト性は安全セットの安定性に起因し、安全セットの内部に過保守的にシステムを引き込むことができる。
当社のCaRTにおけるログバリアの定式化は,マルチエージェント設定での分散実装を可能にします。
本稿では, 非線形動作計画と制御問題のいくつかの例において, CaRTの有効性を実証する。
関連論文リスト
- ConstrainedZero: Chance-Constrained POMDP Planning using Learned Probabilistic Failure Surrogates and Adaptive Safety Constraints [34.9739641898452]
本研究では、最適値とポリシーのニューラルネットワーク近似を学習することにより、信念空間におけるCC-POMDPを解くConstrainedZeroポリシーアルゴリズムを導入する。
その結果, 目標から安全制約を分離することで, 報酬とコストのバランスを最適化することなく, 目標となる安全レベルを達成できることが示唆された。
論文 参考訳(メタデータ) (2024-05-01T17:17:22Z) - Learning Predictive Safety Filter via Decomposition of Robust Invariant
Set [6.94348936509225]
本稿では, RMPCとRL RLの併用による非線形システムの安全フィルタの合成について述べる。
本稿では,ロバストリーチ問題に対する政策アプローチを提案し,その複雑性を確立する。
論文 参考訳(メタデータ) (2023-11-12T08:11:28Z) - Multi-Step Model Predictive Safety Filters: Reducing Chattering by
Increasing the Prediction Horizon [7.55113002732746]
安全フィルタを用いて学習制御ポリシを増強することにより、状態と入力制約の満足度を保証できる。
モデル予測安全フィルタ(MPSF)は、モデル予測制御(MPC)に基づく一般的な安全フィルタリング手法である。
論文 参考訳(メタデータ) (2023-09-20T16:35:29Z) - ISAACS: Iterative Soft Adversarial Actor-Critic for Safety [0.9217021281095907]
この研究は、ロボットシステムのための堅牢な安全維持コントローラのスケーラブルな合成を可能にする新しいアプローチを導入する。
安全を追求するフォールバックポリシーは、モデルエラーの最悪のケースの実現を促進するために、敵の「混乱」エージェントと共同で訓練される。
学習した制御ポリシーは本質的に安全性を保証するものではないが、リアルタイムの安全フィルタを構築するために使用される。
論文 参考訳(メタデータ) (2022-12-06T18:53:34Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。