論文の概要: Efficient Determination of Safety Requirements for Perception Systems
- arxiv url: http://arxiv.org/abs/2307.01371v1
- Date: Mon, 3 Jul 2023 21:56:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 18:54:29.466434
- Title: Efficient Determination of Safety Requirements for Perception Systems
- Title(参考訳): 知覚システムにおける安全要件の効率的な決定
- Authors: Sydney M. Katz, Anthony L. Corso, Esen Yel, Mykel J. Kochenderfer
- Abstract要約: 完全積分閉ループシステムのブラックボックスシミュレータを用いて,安全な認識システムの性能特性の集合を効率的に決定することに集中する。
ガウス過程やしきい値帯域幅といった一般的なブラックボックス推定手法の利点を組み合わせて,スムーズな帯域幅と呼ばれる新しい推定法を開発した。
- 参考スコア(独自算出の注目度): 31.57792455442485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception systems operate as a subcomponent of the general autonomy stack,
and perception system designers often need to optimize performance
characteristics while maintaining safety with respect to the overall
closed-loop system. For this reason, it is useful to distill high-level safety
requirements into component-level requirements on the perception system. In
this work, we focus on efficiently determining sets of safe perception system
performance characteristics given a black-box simulator of the
fully-integrated, closed-loop system. We combine the advantages of common
black-box estimation techniques such as Gaussian processes and threshold
bandits to develop a new estimation method, which we call smoothing bandits. We
demonstrate our method on a vision-based aircraft collision avoidance problem
and show improvements in terms of both accuracy and efficiency over the
Gaussian process and threshold bandit baselines.
- Abstract(参考訳): 知覚システムは一般的な自律スタックのサブコンポーネントとして機能し、認識システム設計者は、全体的な閉ループシステムに対する安全性を維持しながら性能特性を最適化する必要があることが多い。
このため、高レベルの安全要求を知覚システムにおけるコンポーネントレベルの要求に絞り込むことが有用である。
本研究では,完全統合型閉ループシステムのブラックボックスシミュレータにおいて,安全知覚システム性能特性のセットを効率的に決定することに焦点を当てる。
ガウス過程やしきい値バンディットといった一般的なブラックボックス推定手法の利点を組み合わせることで、平滑化バンディットと呼ばれる新しい推定法を開発した。
本稿では,視覚に基づく航空機衝突回避問題について実証し,ガウス過程としきい値帯域ベースラインの精度と効率の両面で改善点を示す。
関連論文リスト
- Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Adaptive Real Time Exploration and Optimization for Safety-Critical
Systems [0.0]
安全制約を考慮したプログラミング問題として,マルチアームバンディットを用いたARTEOアルゴリズムを提案する。
最適化入力の変化と探索を通して環境特性を学習する。
既存のセーフラーニング手法と比較して、我々のアルゴリズムは排他的な探索フェーズを必要とせず、探索点においても最適化目標に従う。
論文 参考訳(メタデータ) (2022-11-10T11:37:22Z) - Provably Safe Reinforcement Learning via Action Projection using
Reachability Analysis and Polynomial Zonotopes [9.861651769846578]
リーチ回避タスクを解く非線形連続システムの安全シールドを開発する。
我々の手法はアクションプロジェクションと呼ばれ、混合整数最適化によって実装されている。
アクションプロジェクションの他の手法とは対照的に、我々の安全シールドは入力制約や障害物を効率的に処理できる。
論文 参考訳(メタデータ) (2022-10-19T16:06:12Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Risk-Driven Design of Perception Systems [47.787943101699966]
システム全体の安全性を低下させるエラーを最小限に抑えるために,認識システムを設計することが重要である。
完全積分閉ループシステムの性能に及ぼす知覚誤差の影響を考慮に入れた認識システム設計のためのリスク駆動型アプローチを開発する。
本研究では,現実的な視界に基づく航空機による応用・回避技術の評価を行い,リスク駆動設計がベースラインシステム上での衝突リスクを37%低減することを示す。
論文 参考訳(メタデータ) (2022-05-21T21:14:56Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。