論文の概要: DeepGuard: A Framework for Safeguarding Autonomous Driving Systems from
Inconsistent Behavior
- arxiv url: http://arxiv.org/abs/2111.09533v1
- Date: Thu, 18 Nov 2021 06:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 22:30:41.285469
- Title: DeepGuard: A Framework for Safeguarding Autonomous Driving Systems from
Inconsistent Behavior
- Title(参考訳): DeepGuard: 一貫性のない振る舞いから自律運転システムを保護するフレームワーク
- Authors: Manzoor Hussain, Nazakat Ali, and Jang-Eui Hong
- Abstract要約: ディープニューラルネットワーク(DNN)ベースの自律運転システム(ADS)は、道路事故を減らし、交通領域の安全性を向上させることが期待されている。
DNNベースのADSは、事故を引き起こす可能性のある予期せぬ運転条件のために、誤動作や予期せぬ動作を示すことがある。
本研究では,自動エンコーダと時系列解析に基づく異常検出システムを提案する。
- 参考スコア(独自算出の注目度): 0.1529342790344802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deep neural networks (DNNs)based autonomous driving systems (ADSs) are
expected to reduce road accidents and improve safety in the transportation
domain as it removes the factor of human error from driving tasks. The DNN
based ADS sometimes may exhibit erroneous or unexpected behaviors due to
unexpected driving conditions which may cause accidents. It is not possible to
generalize the DNN model performance for all driving conditions. Therefore, the
driving conditions that were not considered during the training of the ADS may
lead to unpredictable consequences for the safety of autonomous vehicles. This
study proposes an autoencoder and time series analysis based anomaly detection
system to prevent the safety critical inconsistent behavior of autonomous
vehicles at runtime. Our approach called DeepGuard consists of two components.
The first component, the inconsistent behavior predictor, is based on an
autoencoder and time series analysis to reconstruct the driving scenarios.
Based on reconstruction error and threshold it determines the normal and
unexpected driving scenarios and predicts potential inconsistent behavior. The
second component provides on the fly safety guards, that is, it automatically
activates healing strategies to prevent inconsistencies in the behavior. We
evaluated the performance of DeepGuard in predicting the injected anomalous
driving scenarios using already available open sourced DNN based ADSs in the
Udacity simulator. Our simulation results show that the best variant of
DeepGuard can predict up to 93 percent on the CHAUFFEUR ADS, 83 percent on
DAVE2 ADS, and 80 percent of inconsistent behavior on the EPOCH ADS model,
outperforming SELFORACLE and DeepRoad. Overall, DeepGuard can prevent up to 89
percent of all predicted inconsistent behaviors of ADS by executing predefined
safety guards.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)ベースの自律運転システム(ADS)は、運転タスクからヒューマンエラーの要因を取り除くため、道路事故を減らし、交通領域の安全性を向上させることが期待されている。
dnnベースの広告は、事故を引き起こす可能性のある予期せぬ運転条件による誤った行動または予期しない行動を示すことがある。
全ての運転条件に対してDNNモデルの性能を一般化することは不可能である。
したがって、ADSの訓練中に考慮されなかった運転条件は、自動運転車の安全性に予測不可能な結果をもたらす可能性がある。
本研究では,自動エンコーダと時系列解析に基づく異常検出システムを提案する。
DeepGuardと呼ばれるアプローチは2つのコンポーネントで構成されています。
最初のコンポーネントである一貫性のない動作予測器は、自動エンコーダと時系列解析に基づいて駆動シナリオを再構築する。
復元誤差としきい値に基づいて、通常の運転シナリオと予期せぬ運転シナリオを決定し、潜在的な矛盾した振る舞いを予測する。
第2のコンポーネントは、ハエの安全ガード、すなわち、自動的に治癒戦略を活性化し、行動の不一致を防止する。
Udacityシミュレータで既に利用可能なDNNベースのADSを用いて、注入された異常運転シナリオの予測におけるDeepGuardの性能を評価した。
シミュレーションの結果、deepguardの最良のバージョンは、chauffeur広告の最大93%、dave2広告の83%、epoch広告モデルにおける一貫性のない行動の80%、そしてselforacleとdeeproadを上回っていることがわかった。
全体として、DeepGuardは事前に定義された安全ガードを実行することで、予測されたADSの不整合行動の最大99%を防止できる。
関連論文リスト
- Automatic AI controller that can drive with confidence: steering vehicle with uncertainty knowledge [3.131134048419781]
本研究は,機械学習フレームワークを用いた車両の横方向制御システムの開発に焦点をあてる。
確率論的学習モデルであるベイズニューラルネットワーク(BNN)を用いて不確実性定量化に対処する。
信頼しきい値を確立することで、手動による介入をトリガーし、安全なパラメータの外で動作した場合に、制御がアルゴリズムから解放されることを保証できます。
論文 参考訳(メタデータ) (2024-04-24T23:22:37Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - REDriver: Runtime Enforcement for Autonomous Vehicles [6.97499033700151]
本稿では,自律運転システムの実行時適用に対する汎用的かつモジュール的なアプローチであるREDriverを提案する。
ReDriverは、STLの定量的セマンティクスに基づいて、ADSの計画された軌道を監視する。
仕様に違反する可能性がある場合に、勾配駆動のアルゴリズムを使って軌道を修復する。
論文 参考訳(メタデータ) (2024-01-04T13:08:38Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - AdvDO: Realistic Adversarial Attacks for Trajectory Prediction [87.96767885419423]
軌道予測は、自動運転車が正しく安全な運転行動を計画するために不可欠である。
我々は,現実的な対向軌道を生成するために,最適化に基づく対向攻撃フレームワークを考案する。
私たちの攻撃は、AVが道路を走り去るか、シミュレーション中に他の車両に衝突する可能性がある。
論文 参考訳(メタデータ) (2022-09-19T03:34:59Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - Driving Anomaly Detection Using Conditional Generative Adversarial
Network [26.45460503638333]
本研究では,条件付き生成逆数ネットワーク(GAN)を用いた運転異常の定量化手法を提案する。
この手法は、事前に観測された信号にモデルを条件付けすることで、今後の運転シナリオを予測する。
結果は知覚的評価によって検証され、アノテータは高い異常スコアで検出されたビデオのリスクと親しみやすさを評価するよう依頼される。
論文 参考訳(メタデータ) (2022-03-15T22:10:01Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z) - Towards Safer Self-Driving Through Great PAIN (Physically Adversarial
Intelligent Networks) [3.136861161060885]
我々は、自動運転車が積極的に対話する「Physically Adrial Intelligent Network」(PAIN)を紹介する。
我々は2つのエージェント、主人公と敵を訓練し、優先された体験リプレイを伴う二重深度Qネットワーク(DDDQN)を使用する。
訓練された主人公は、環境の不確実性に対してより弾力性を持ち、ケースの失敗を抑える傾向がある。
論文 参考訳(メタデータ) (2020-03-24T05:04:13Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。