論文の概要: Slow Down, Move Over: A Case Study in Formal Verification, Refinement,
and Testing of the Responsibility-Sensitive Safety Model for Self-Driving
Cars
- arxiv url: http://arxiv.org/abs/2305.08812v1
- Date: Mon, 15 May 2023 17:18:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:32:29.760777
- Title: Slow Down, Move Over: A Case Study in Formal Verification, Refinement,
and Testing of the Responsibility-Sensitive Safety Model for Self-Driving
Cars
- Title(参考訳): 減速、移動:自動運転車の責任感性安全モデルの形式的検証、洗練、およびテストにおけるケーススタディ
- Authors: Megan Strauss and Stefan Mitsch
- Abstract要約: 我々は、自動運転車の責任感性安全モデル(RSS)を定式化する。
我々は、ハイブリッドシステム定理証明器KeYmaera Xを用いて、RSSを非決定論的制御選択と連続運動モデルを備えたハイブリッドシステムとして定式化する。
結果のPythonコードは、シミュレーションにおいてRSSのモーションモデルに従って車の振る舞いをテストすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Technology advances give us the hope of driving without human error, reducing
vehicle emissions and simplifying an everyday task with the future of
self-driving cars. Making sure these vehicles are safe is very important to the
continuation of this field. In this paper, we formalize the
Responsibility-Sensitive Safety model (RSS) for self-driving cars and prove the
safety and optimality of this model in the longitudinal direction. We utilize
the hybrid systems theorem prover KeYmaera X to formalize RSS as a hybrid
system with its nondeterministic control choices and continuous motion model,
and prove absence of collisions. We then illustrate the practicality of RSS
through refinement proofs that turn the verified nondeterministic control
envelopes into deterministic ones and further verified compilation to Python.
The refinement and compilation are safety-preserving; as a result, safety
proofs of the formal model transfer to the compiled code, while counterexamples
discovered in testing the code of an unverified model transfer back. The
resulting Python code allows to test the behavior of cars following the motion
model of RSS in simulation, to measure agreement between the model and
simulation with monitors that are derived from the formal model, and to report
counterexamples from simulation back to the formal model.
- Abstract(参考訳): テクノロジーの進歩は、人間のミスなしに運転し、車の排出を減らし、自動運転車の未来で日々のタスクを単純化する希望を与えてくれる。
これらの車両が安全であることを保証することは、この分野の継続にとって非常に重要である。
本稿では,自動運転車の責任感性安全モデル(rss)を定式化し,このモデルの長手方向の安全性と最適性を証明する。
我々は、ハイブリッドシステム定理証明器KeYmaera Xを用いて、RSSを非決定論的制御選択と連続運動モデルを備えたハイブリッドシステムとして形式化し、衝突の欠如を証明する。
検証済みの非決定論的制御エンベロープを決定論的なものに変換し、さらに検証済みのコンパイルをpythonに変換する、精巧な証明を通じてrssの実用性を説明する。
結果として、形式的なモデル転送の安全性証明がコンパイルされたコードに、検証されていないモデル転送のコードのテストで発見された逆例が見つかった。
結果として得られたpythonコードは、シミュレーションにおけるrssの運動モデルに従う車の挙動をテストし、形式モデルから派生したモニターでモデルとシミュレーションの一致を計測し、シミュレーションから形式モデルへの反例を報告できる。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Augmented Driver Behavior Models for High-Fidelity Simulation Study of
Crash Detection Algorithms [2.064612766965483]
人力車と自動車の両方を含むハイブリッド輸送システムのシミュレーションプラットフォームを提案する。
我々は、人間の運転タスクを分解し、大規模な交通シナリオをシミュレートするためのモジュラーアプローチを提供する。
我々は、大きな駆動データセットを分析し、異なる駆動特性を最もよく記述する表現的パラメータを抽出する。
論文 参考訳(メタデータ) (2022-08-10T19:59:16Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Formulation and validation of a car-following model based on deep
reinforcement learning [0.0]
深部強化学習に基づく新車追従モデルの提案と検証を行う。
当社のモデルは, 自由・自動車追従体制において, 外部に与えられた報酬関数を最大化するように訓練されている。
これらの報酬関数のパラメータは、Intelligent Driver Modelのような従来のモデルに類似している。
論文 参考訳(メタデータ) (2021-09-29T08:27:12Z) - A Hybrid Rule-Based and Data-Driven Approach to Driver Modeling through
Particle Filtering [6.9485501711137525]
本稿ではルールベースモデリングとデータ駆動学習を組み合わせた方法論を提案する。
この結果から,我々のハイブリッドルールベースおよびデータ駆動型アプローチに基づくドライバモデルにより,実世界の運転行動を正確に把握できることが示唆された。
論文 参考訳(メタデータ) (2021-08-29T11:07:14Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Learning to falsify automated driving vehicles with prior knowledge [1.4610038284393165]
本稿では,シミュレーションにおける自動運転機能の実装をテストするための学習に基づく偽造フレームワークを提案する。
シナリオパラメータの分散を制限し、学習プロセスをガイドし、改善するためのモデルベースのファシファイアに事前知識が組み込まれています。
論文 参考訳(メタデータ) (2021-01-25T19:51:38Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z) - Online Parameter Estimation for Human Driver Behavior Prediction [5.927030511296174]
インテリジェントドライバモデルに適用されたオンラインパラメータ推定は、衝突のない軌道を提供しながら、ニュアンスな個人運転行動をキャプチャすることを示す。
本研究は,運転モデルの真理データ実証における近接性を評価し,その結果の緊急運転行動の安全性を評価する。
論文 参考訳(メタデータ) (2020-05-06T05:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。