論文の概要: Safe Adaptive Cruise Control Under Perception Uncertainty: A Deep Ensemble and Conformal Tube Model Predictive Control Approach
- arxiv url: http://arxiv.org/abs/2412.03792v1
- Date: Thu, 05 Dec 2024 01:01:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:39:30.474668
- Title: Safe Adaptive Cruise Control Under Perception Uncertainty: A Deep Ensemble and Conformal Tube Model Predictive Control Approach
- Title(参考訳): 知覚不確かさ下での安全適応型クルーズ制御:深いアンサンブルと等角管モデル予測制御アプローチ
- Authors: Xiao Li, Anouck Girard, Ilya Kolmanovsky,
- Abstract要約: 本稿では、不確実性を予測・定量化するために、コンフォーマル予測と統合されたディープニューラルネットワーク回帰器のディープアンサンブルについて考察する。
コンフォーマルチューブモデル予測制御を用いた適応型クルーズ制御装置は、確率論的安全性を確保するために設計されている。
高忠実度シミュレータによる評価は、速度トラッキングと安全な距離維持におけるアルゴリズムの有効性を示す。
- 参考スコア(独自算出の注目度): 5.740554452832947
- License:
- Abstract: Autonomous driving heavily relies on perception systems to interpret the environment for decision-making. To enhance robustness in these safety critical applications, this paper considers a Deep Ensemble of Deep Neural Network regressors integrated with Conformal Prediction to predict and quantify uncertainties. In the Adaptive Cruise Control setting, the proposed method performs state and uncertainty estimation from RGB images, informing the downstream controller of the DNN perception uncertainties. An adaptive cruise controller using Conformal Tube Model Predictive Control is designed to ensure probabilistic safety. Evaluations with a high-fidelity simulator demonstrate the algorithm's effectiveness in speed tracking and safe distance maintaining, including in Out-Of-Distribution scenarios.
- Abstract(参考訳): 自律運転は、意思決定のために環境を解釈する知覚システムに大きく依存する。
本稿では、これらの安全クリティカルなアプリケーションにおける堅牢性を高めるために、コンフォーマル予測と統合されたディープニューラルネットワーク回帰器のディープアンサンブルを考察し、不確かさの予測と定量化を行う。
適応クルーズ制御設定では、提案手法はRGB画像から状態と不確実性を推定し、DNNの下流コントローラに不確かさを通知する。
コンフォーマルチューブモデル予測制御を用いた適応型クルーズ制御装置は、確率論的安全性を確保するために設計されている。
高忠実度シミュレータによる評価は、アウトオブオフ・ディストリビューションシナリオを含む、スピードトラッキングと安全な距離維持におけるアルゴリズムの有効性を示す。
関連論文リスト
- Autonomous Driving With Perception Uncertainties: Deep-Ensemble Based Adaptive Cruise Control [6.492311803411367]
ブラックボックスDeep Neural Networks (DNN) を用いた高度な認識システムは、人間のような理解を実証する。
予測不可能な振る舞いと解釈可能性の欠如は、安全クリティカルなシナリオへの展開を妨げる可能性がある。
論文 参考訳(メタデータ) (2024-03-22T19:04:58Z) - Safe Perception-Based Control under Stochastic Sensor Uncertainty using
Conformal Prediction [27.515056747751053]
本稿では,知覚マップの推定不確かさを定量化する知覚ベース制御フレームワークを提案する。
また、これらの不確実性表現を制御設計に統合する。
本稿では,LiDAR対応F1/10thカーに対する認識制御の有効性を示す。
論文 参考訳(メタデータ) (2023-04-01T01:45:53Z) - Probabilities Are Not Enough: Formal Controller Synthesis for Stochastic
Dynamical Models with Epistemic Uncertainty [68.00748155945047]
複雑な力学系のモデルにおける不確実性を捉えることは、安全なコントローラの設計に不可欠である。
いくつかのアプローチでは、安全と到達可能性に関する時間的仕様を満たすポリシーを形式的な抽象化を用いて合成する。
我々の貢献は、ノイズ、不確実なパラメータ、外乱を含む連続状態モデルに対する新しい抽象的制御法である。
論文 参考訳(メタデータ) (2022-10-12T07:57:03Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Adaptive control of a mechatronic system using constrained residual
reinforcement learning [0.0]
本研究では,不確実な環境下での従来のコントローラの性能向上のための,シンプルで実用的で直感的な手法を提案する。
本手法は, 産業用モーションコントロールにおける従来の制御器が, 異なる動作条件に対応するために適応性よりも頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-06T08:13:05Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Safe and Efficient Model-free Adaptive Control via Bayesian Optimization [39.962395119933596]
適応制御のための純粋データ駆動型モデルフリーアプローチを提案する。
システムデータのみに基づく低レベルコントローラのチューニングは、アルゴリズムの安全性と計算性能に懸念を生じさせる。
我々は,提案手法がサンプル効率であり,安全性の観点から制約ベイズ最適化よりも優れており,グリッド評価によって計算された性能オプティマを達成することを数値的に示す。
論文 参考訳(メタデータ) (2021-01-19T19:15:00Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z) - Robust Learning-Based Control via Bootstrapped Multiplicative Noise [0.0]
本稿では,このような非漸近的不確かさを制御設計に明示的に組み込む頑健な適応制御アルゴリズムを提案する。
提案手法の主な利点は、システム識別とロバストな制御設計手順の両方が不確実性表現を使用することである。
論文 参考訳(メタデータ) (2020-02-24T04:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。