論文の概要: How Safe Am I Given What I See? Calibrated Prediction of Safety Chances
for Image-Controlled Autonomy
- arxiv url: http://arxiv.org/abs/2308.12252v1
- Date: Wed, 23 Aug 2023 17:01:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 13:26:30.423139
- Title: How Safe Am I Given What I See? Calibrated Prediction of Safety Chances
for Image-Controlled Autonomy
- Title(参考訳): 私が見るものはどうすれば安全か?
画像制御自律性のための安全確率の校正予測
- Authors: Zhenjiang Mao, Carson Sobolewski, Ivan Ruchkin
- Abstract要約: 本稿では,生成的世界モデルに基づく学習パイプラインのファミリーを提案する。
安全インフォームドされた潜伏表現と欠落する安全ラベルを学習する上での課題を克服する。
画像制御システムの2つのケーススタディにおいて,提案した学習パイプラインを広範囲に評価する。
- 参考スコア(独自算出の注目度): 0.1534667887016089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end learning has emerged as a major paradigm for developing autonomous
systems. Unfortunately, with its performance and convenience comes an even
greater challenge of safety assurance. A key factor of this challenge is the
absence of the notion of a low-dimensional and interpretable dynamical state,
around which traditional assurance methods revolve. Focusing on the online
safety prediction problem, this paper proposes a configurable family of
learning pipelines based on generative world models, which do not require
low-dimensional states. To implement these pipelines, we overcome the
challenges of learning safety-informed latent representations and missing
safety labels under prediction-induced distribution shift. These pipelines come
with statistical calibration guarantees on their safety chance predictions
based on conformal prediction. We perform an extensive evaluation of the
proposed learning pipelines on two case studies of image-controlled systems: a
racing car and a cartpole.
- Abstract(参考訳): エンドツーエンドの学習は、自律的なシステムを開発するための主要なパラダイムとして登場した。
残念ながら、パフォーマンスと利便性により、安全性の保証がさらに困難になる。
この課題の鍵となる要素は、従来の保証法が発展する低次元かつ解釈可能な動的状態の概念がないことである。
本稿では,オンライン安全性予測問題に着目し,低次元状態を必要としない生成世界モデルに基づく構成可能な学習パイプライン群を提案する。
これらのパイプラインを実装するために,予測誘導分布シフトの下で,安全インフォームト表現と安全性ラベルの欠落を学習する上での課題を克服する。
これらのパイプラインは、共形予測に基づいて安全確率予測の統計的キャリブレーションを保証する。
画像制御システムの2つのケーススタディ(レーシングカーとカートポール)において,提案する学習パイプラインを広範囲に評価した。
関連論文リスト
- Risk-Aware Vehicle Trajectory Prediction Under Safety-Critical Scenarios [25.16311876790003]
本稿では,安全クリティカルシナリオに適したリスク対応軌道予測フレームワークを提案する。
安全クリティカルな軌道予測データセットと調整された評価指標を導入する。
その結果,モデルの性能が向上し,ほとんどの指標が大幅に改善した。
論文 参考訳(メタデータ) (2024-07-18T13:00:01Z) - System Safety Monitoring of Learned Components Using Temporal Metric Forecasting [8.76735390039138]
学習可能な自律システムにおいて、学習したコンポーネントの安全性監視は、その出力がシステムの安全性違反に結びつかないことを保証するために不可欠である。
本稿では,確率的時系列予測に基づく安全監視手法を提案する。
安全度と違反予測精度を実証的に評価し、4つの最先端モデルの推論遅延とリソース使用率について検討した。
論文 参考訳(メタデータ) (2024-05-21T23:48:26Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Verification of Neural Reachable Tubes via Scenario Optimization and Conformal Prediction [10.40899456282141]
Hamilton-Jacobiリーチビリティ分析は、そのような保証を提供するための一般的な形式的検証ツールである。
DeepReachは、高次元システムのための到達可能なチューブと安全コントローラの合成に使用されている。
本稿では,確率論的安全性を保証するために,頑健なシナリオ最適化と共形予測に基づく2つの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T02:03:36Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Conservative Safety Critics for Exploration [120.73241848565449]
強化学習(RL)における安全な探索の課題について検討する。
我々は、批評家を通じて環境状態の保守的な安全性推定を学習する。
提案手法は,破滅的故障率を著しく低く抑えながら,競争力のあるタスク性能を実現することができることを示す。
論文 参考訳(メタデータ) (2020-10-27T17:54:25Z) - CARPAL: Confidence-Aware Intent Recognition for Parallel Autonomy [24.358828325716427]
本稿では,確率的ドライバ軌道だけでなく,下流タスクの予測に付随する実用統計も予測する,新しいマルチタスク意図認識ニューラルネットワークを提案する。
我々は,現実的な都市運転データセット上でオンラインシステムをテストし,基準手法と比較して,リコールとフォールアウトの指標でその利点を実証する。
論文 参考訳(メタデータ) (2020-03-18T01:25:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。