論文の概要: The Safety Filter: A Unified View of Safety-Critical Control in
Autonomous Systems
- arxiv url: http://arxiv.org/abs/2309.05837v1
- Date: Mon, 11 Sep 2023 21:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:59:15.549027
- Title: The Safety Filter: A Unified View of Safety-Critical Control in
Autonomous Systems
- Title(参考訳): 安全フィルタ:自律システムにおける安全臨界制御の統一的視点
- Authors: Kai-Chieh Hsu, Haimin Hu, Jaime Fern\'andez Fisac
- Abstract要約: 本稿では、安全フィルタのアプローチをレビューし、それらを理解し、比較し、組み合わせるための統合された技術フレームワークを提案する。
新しい統一ビューは、さまざまな異なるセーフティフィルタクラスにわたる共有モジュール構造を公開する。
それは自然に、よりスケーラブルな合成、堅牢な監視、効率的な介入に向けた将来の進歩の方向性を示唆している。
- 参考スコア(独自算出の注目度): 0.08521820162570426
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have seen significant progress in the realm of robot autonomy,
accompanied by the expanding reach of robotic technologies. However, the
emergence of new deployment domains brings unprecedented challenges in ensuring
safe operation of these systems, which remains as crucial as ever. While
traditional model-based safe control methods struggle with generalizability and
scalability, emerging data-driven approaches tend to lack well-understood
guarantees, which can result in unpredictable catastrophic failures. Successful
deployment of the next generation of autonomous robots will require integrating
the strengths of both paradigms. This article provides a review of safety
filter approaches, highlighting important connections between existing
techniques and proposing a unified technical framework to understand, compare,
and combine them. The new unified view exposes a shared modular structure
across a range of seemingly disparate safety filter classes and naturally
suggests directions for future progress towards more scalable synthesis, robust
monitoring, and efficient intervention.
- Abstract(参考訳): 近年、ロボット技術の普及に伴い、ロボットの自律性が著しく進歩している。
しかし、新しい展開ドメインの出現は、これらのシステムの安全な運用を確保するための前例のない課題をもたらす。
従来のモデルベースの安全な制御手法は、一般化性とスケーラビリティに苦しむが、新しいデータ駆動型アプローチは、十分に理解された保証を欠く傾向にあり、予測不可能な破滅的な失敗をもたらす。
次世代の自律ロボットの展開に成功するには、両方のパラダイムの強みを統合する必要がある。
この記事では、安全フィルタアプローチのレビューを行い、既存の技術間の重要なつながりを強調し、それらを理解し、比較し、組み合わせるための統一された技術フレームワークを提案します。
新しいunified viewは、一見異なるセーフティフィルタクラスにまたがる共有モジュール構造を公開し、よりスケーラブルな合成、堅牢なモニタリング、効率的な介入への方向性を自然に提案している。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [97.82118821263825]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - Handling Long-Term Safety and Uncertainty in Safe Reinforcement Learning [17.856459823003277]
安全性は、現実世界のロボットに強化学習技術が配備されるのを防ぐ重要な問題の1つだ。
本稿では,安全な探索手法であるATACOMを学習可能な制約で拡張することにより,そのギャップを埋める。
論文 参考訳(メタデータ) (2024-09-18T15:08:41Z) - ABNet: Attention BarrierNet for Safe and Scalable Robot Learning [58.4951884593569]
バリアベースの手法は、安全なロボット学習における主要なアプローチの1つである。
本稿では,より大規模な基本安全モデルを段階的に構築するスケーラブルなAttention BarrierNet(ABNet)を提案する。
2次元ロボット障害物回避、安全なロボット操作、視覚に基づくエンドツーエンド自動運転におけるABNetの強みを実証する。
論文 参考訳(メタデータ) (2024-06-18T19:37:44Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - In-Distribution Barrier Functions: Self-Supervised Policy Filters that
Avoid Out-of-Distribution States [84.24300005271185]
本稿では,任意の参照ポリシーをラップした制御フィルタを提案する。
本手法は、トップダウンとエゴセントリックの両方のビュー設定を含むシミュレーション環境における2つの異なるビズモータ制御タスクに有効である。
論文 参考訳(メタデータ) (2023-01-27T22:28:19Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z) - Safety-aware Policy Optimisation for Autonomous Racing [17.10371721305536]
ハミルトン・ヤコビ(HJ)到達可能性理論を制約付きマルコフ決定過程(CMDP)フレームワークに導入する。
我々は,HJの安全性を視覚的文脈で直接学習できることを実証した。
我々は、最近リリースされた高忠実な自律走行環境であるSafety GymやLearning-to-Race (L2R)など、いくつかのベンチマークタスクにおいて、本手法の評価を行った。
論文 参考訳(メタデータ) (2021-10-14T20:15:45Z) - Safe Active Dynamics Learning and Control: A Sequential
Exploration-Exploitation Framework [30.58186749790728]
本研究では,力学の不確実性の存在下での安全性を維持するための理論的に正当なアプローチを提案する。
我々のフレームワークは、常に全ての制約の高確率満足度を保証します。
この理論解析は、オンライン適応能力を改善する最終層メタラーニングモデルの2つの正則化を動機付けている。
論文 参考訳(メタデータ) (2020-08-26T17:39:58Z) - Safe reinforcement learning for probabilistic reachability and safety
specifications: A Lyapunov-based approach [2.741266294612776]
安全運転の最大確率を学習するモデルフリー安全仕様法を提案する。
提案手法は, 各政策改善段階を抑制するための安全な政策に関して, リャプノフ関数を構築する。
安全集合と呼ばれる安全な操作範囲を決定する一連の安全なポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-24T09:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。