論文の概要: Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2203.02401v1
- Date: Fri, 4 Mar 2022 16:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:42:00.977095
- Title: Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving
- Title(参考訳): 視覚に基づくエンドツーエンド自動運転のための微分制御バリア機能
- Authors: Wei Xiao and Tsun-Hsuan Wang and Makram Chahine and Alexander Amini
and Ramin Hasani and Daniela Rus
- Abstract要約: 本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
- 参考スコア(独自算出の注目度): 100.57791628642624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Guaranteeing safety of perception-based learning systems is challenging due
to the absence of ground-truth state information unlike in state-aware control
scenarios. In this paper, we introduce a safety guaranteed learning framework
for vision-based end-to-end autonomous driving. To this end, we design a
learning system equipped with differentiable control barrier functions (dCBFs)
that is trained end-to-end by gradient descent. Our models are composed of
conventional neural network architectures and dCBFs. They are interpretable at
scale, achieve great test performance under limited training data, and are
safety guaranteed in a series of autonomous driving scenarios such as lane
keeping and obstacle avoidance. We evaluated our framework in a sim-to-real
environment, and tested on a real autonomous car, achieving safe lane following
and obstacle avoidance via Augmented Reality (AR) and real parked vehicles.
- Abstract(参考訳): 知覚に基づく学習システムの安全性の保証は、状態認識制御シナリオと異なり、地中情報がないため困難である。
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
この目的のために、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
我々のモデルは従来のニューラルネットワークアーキテクチャとdcbfで構成されている。
それらは大規模に解釈可能であり、限られたトレーニングデータの下で優れたテスト性能を達成でき、車線維持や障害物回避といった一連の自律運転シナリオで安全が保証される。
我々は,本フレームワークを実走行環境において評価し,実車上でテストし,Augmented Reality(AR)および実駐車車両による安全な車線追従と障害物回避を実現した。
関連論文リスト
- Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Safety-aware Causal Representation for Trustworthy Offline Reinforcement
Learning in Autonomous Driving [33.672722472758636]
オフライン強化学習(RL)アプローチは、オフラインデータセットからのシーケンシャルな意思決定問題に対処する上で、顕著な効果を示す。
一般化可能なエンドツーエンド駆動ポリシの学習を容易にするために,saFety-aware strUctured Scenario representation (Fusion)を導入した。
様々な運転シナリオにおける実証的な証拠は、フュージョンが自律運転エージェントの安全性と一般化性を著しく向上させることを証明している。
論文 参考訳(メタデータ) (2023-10-31T18:21:24Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Learning Stability Attention in Vision-based End-to-end Driving Policies [100.57791628642624]
本稿では, 制御型リアプノフ関数(CLF)を利用して, エンドツーエンドのビジョンベースのポリシに安定性を付与する手法を提案する。
本稿では,att-CLFに密に統合された不確実性伝播手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T20:31:10Z) - ScaTE: A Scalable Framework for Self-Supervised Traversability
Estimation in Unstructured Environments [7.226357394861987]
本研究では,自己教師付きトラバーサビリティ学習のためのスケーラブルなフレームワークを提案する。
私たちは、車両が3Dポイントの雲から受ける受容的体験を予測するニューラルネットワークをトレーニングします。
シミュレーションと実世界から収集した各種車両の運転データから,本フレームワークは各種車両の自己監督的走行性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-09-14T09:52:26Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Weakly Supervised Reinforcement Learning for Autonomous Highway Driving
via Virtual Safety Cages [42.57240271305088]
規則に基づく安全ケージは、車両の安全性の向上と強化学習エージェントに対する弱い監督を提供する自律型車両の縦方向制御に対する強化学習ベースのアプローチを提示する。
モデルパラメータが制約されたり,あるいは最適化されていない場合,モデルが強化学習だけでは運転を訓練できない場合でも,モデルが安全な運転方針を学習できることを示す。
論文 参考訳(メタデータ) (2021-03-17T15:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。