論文の概要: The Safety Filter: A Unified View of Safety-Critical Control in
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2309.05837v1
- Date: Mon, 11 Sep 2023 21:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:59:15.549027
- Title: The Safety Filter: A Unified View of Safety-Critical Control in
Autonomous Systems
- Title(参考訳): 安全フィルタ:自律システムにおける安全臨界制御の統一的視点
- Authors: Kai-Chieh Hsu, Haimin Hu, Jaime Fern\'andez Fisac
- Abstract要約: 本稿では、安全フィルタのアプローチをレビューし、それらを理解し、比較し、組み合わせるための統合された技術フレームワークを提案する。
新しい統一ビューは、さまざまな異なるセーフティフィルタクラスにわたる共有モジュール構造を公開する。
それは自然に、よりスケーラブルな合成、堅牢な監視、効率的な介入に向けた将来の進歩の方向性を示唆している。
- 参考スコア(独自算出の注目度): 0.08521820162570426
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have seen significant progress in the realm of robot autonomy,
accompanied by the expanding reach of robotic technologies. However, the
emergence of new deployment domains brings unprecedented challenges in ensuring
safe operation of these systems, which remains as crucial as ever. While
traditional model-based safe control methods struggle with generalizability and
scalability, emerging data-driven approaches tend to lack well-understood
guarantees, which can result in unpredictable catastrophic failures. Successful
deployment of the next generation of autonomous robots will require integrating
the strengths of both paradigms. This article provides a review of safety
filter approaches, highlighting important connections between existing
techniques and proposing a unified technical framework to understand, compare,
and combine them. The new unified view exposes a shared modular structure
across a range of seemingly disparate safety filter classes and naturally
suggests directions for future progress towards more scalable synthesis, robust
monitoring, and efficient intervention.
- Abstract(参考訳): 近年、ロボット技術の普及に伴い、ロボットの自律性が著しく進歩している。
しかし、新しい展開ドメインの出現は、これらのシステムの安全な運用を確保するための前例のない課題をもたらす。
従来のモデルベースの安全な制御手法は、一般化性とスケーラビリティに苦しむが、新しいデータ駆動型アプローチは、十分に理解された保証を欠く傾向にあり、予測不可能な破滅的な失敗をもたらす。
次世代の自律ロボットの展開に成功するには、両方のパラダイムの強みを統合する必要がある。
この記事では、安全フィルタアプローチのレビューを行い、既存の技術間の重要なつながりを強調し、それらを理解し、比較し、組み合わせるための統一された技術フレームワークを提案します。
新しいunified viewは、一見異なるセーフティフィルタクラスにまたがる共有モジュール構造を公開し、よりスケーラブルな合成、堅牢なモニタリング、効率的な介入への方向性を自然に提案している。
関連論文リスト
- Controllable Safety-Critical Closed-loop Traffic Simulation via Guided
Diffusion [100.4988219600854]
誘導拡散モデルに根ざした新しいクローズドループシミュレーションフレームワークを提案する。
提案手法は, 現実の条件を密にエミュレートする現実的なロングテールシナリオの生成と, 制御性の向上という, 二つの異なる利点をもたらす。
我々はNuScenesデータセットを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z) - Safety-aware Policy Optimisation for Autonomous Racing [17.10371721305536]
ハミルトン・ヤコビ(HJ)到達可能性理論を制約付きマルコフ決定過程(CMDP)フレームワークに導入する。
我々は,HJの安全性を視覚的文脈で直接学習できることを実証した。
我々は、最近リリースされた高忠実な自律走行環境であるSafety GymやLearning-to-Race (L2R)など、いくつかのベンチマークタスクにおいて、本手法の評価を行った。
論文 参考訳(メタデータ) (2021-10-14T20:15:45Z) - Enforcing robust control guarantees within neural network policies [76.00287474159973]
本稿では、ニューラルネットワークによってパラメータ化され、ロバスト制御と同じ証明可能なロバスト性基準を適用した、一般的な非線形制御ポリシークラスを提案する。
提案手法は,複数の領域において有効であり,既存のロバスト制御法よりも平均ケース性能が向上し,(非ロバスト)深部RL法よりも最悪のケース安定性が向上した。
論文 参考訳(メタデータ) (2020-11-16T17:14:59Z) - Risk-Sensitive Sequential Action Control with Multi-Modal Human
Trajectory Forecasting for Safe Crowd-Robot Interaction [55.569050872780224]
本稿では,リスクに敏感な最適制御に基づく安全な群集ロボットインタラクションのためのオンラインフレームワークを提案し,そのリスクをエントロピーリスク尺度でモデル化する。
私たちのモジュラーアプローチは、クラウドとロボットの相互作用を学習ベースの予測とモデルベースの制御に分離します。
シミュレーション研究と実世界の実験により、このフレームワークは、現場にいる50人以上の人間との衝突を避けながら、安全で効率的なナビゲーションを実現することができることが示された。
論文 参考訳(メタデータ) (2020-09-12T02:02:52Z) - Safe Active Dynamics Learning and Control: A Sequential
Exploration-Exploitation Framework [30.58186749790728]
本研究では,力学の不確実性の存在下での安全性を維持するための理論的に正当なアプローチを提案する。
我々のフレームワークは、常に全ての制約の高確率満足度を保証します。
この理論解析は、オンライン適応能力を改善する最終層メタラーニングモデルの2つの正則化を動機付けている。
論文 参考訳(メタデータ) (2020-08-26T17:39:58Z) - Safe reinforcement learning for probabilistic reachability and safety
specifications: A Lyapunov-based approach [2.741266294612776]
安全運転の最大確率を学習するモデルフリー安全仕様法を提案する。
提案手法は, 各政策改善段階を抑制するための安全な政策に関して, リャプノフ関数を構築する。
安全集合と呼ばれる安全な操作範囲を決定する一連の安全なポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-24T09:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。