論文の概要: Sensor Data Validation and Driving Safety in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2203.16130v2
- Date: Fri, 1 Apr 2022 06:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 11:07:27.844898
- Title: Sensor Data Validation and Driving Safety in Autonomous Driving Systems
- Title(参考訳): 自律運転システムにおけるセンサデータ検証と運転安全
- Authors: Jindi Zhang
- Abstract要約: 先進的なセンサーとディープラーニングモデルは、最近発明された攻撃方法の傾向がある。
本稿では,車載センサの攻撃に対する検出方法と,攻撃されたディープラーニングモデルと自動運転車の運転安全性の関連性について検討する。
- 参考スコア(独自算出の注目度): 0.9137554315375922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving technology has drawn a lot of attention due to its fast
development and extremely high commercial values. The recent technological leap
of autonomous driving can be primarily attributed to the progress in the
environment perception. Good environment perception provides accurate
high-level environment information which is essential for autonomous vehicles
to make safe and precise driving decisions and strategies. Moreover, such
progress in accurate environment perception would not be possible without deep
learning models and advanced onboard sensors, such as optical sensors (LiDARs
and cameras), radars, GPS. However, the advanced sensors and deep learning
models are prone to recently invented attack methods. For example, LiDARs and
cameras can be compromised by optical attacks, and deep learning models can be
attacked by adversarial examples. The attacks on advanced sensors and deep
learning models can largely impact the accuracy of the environment perception,
posing great threats to the safety and security of autonomous vehicles. In this
thesis, we study the detection methods against the attacks on onboard sensors
and the linkage between attacked deep learning models and driving safety for
autonomous vehicles. To detect the attacks, redundant data sources can be
exploited, since information distortions caused by attacks in victim sensor
data result in inconsistency with the information from other redundant sources.
To study the linkage between attacked deep learning models and driving
safety...
- Abstract(参考訳): 自動運転技術は、急速な開発と非常に高い商業価値のために多くの注目を集めている。
最近の自動運転の技術的飛躍は、主に環境認識の進歩に起因している。
良い環境認識は、自動運転車が安全かつ正確な運転決定と戦略を行うために必要な、正確なハイレベルな環境情報を提供する。
さらに、深層学習モデルや、光学センサー(LiDARとカメラ)、レーダー、GPSなどの高度な搭載センサーがなければ、正確な環境認識の進歩は不可能である。
しかし、先進的なセンサーとディープラーニングモデルは、最近発明された攻撃方法の傾向にある。
例えば、LiDARやカメラは光学攻撃によって損なわれ、ディープラーニングモデルは敵の例によって攻撃される。
高度なセンサーやディープラーニングモデルへの攻撃は、環境知覚の精度に大きな影響を与え、自動運転車の安全性と安全性に大きな脅威となる。
本稿では,車載センサの攻撃に対する検出方法と,攻撃されたディープラーニングモデルと自動運転車の運転安全性の関連性について検討する。
被害者センサデータの攻撃による情報歪みは、他の冗長ソースの情報と矛盾するため、攻撃を検出するために冗長データソースを利用することができる。
攻撃された深層学習モデルと運転安全の関係を調べるために
関連論文リスト
- Harnessing Smartphone Sensors for Enhanced Road Safety: A Comprehensive Dataset and Review [7.867406170788454]
本研究では,スマートフォンセンサから得られた包括的データセットを提案する。
これらのセンサーは加速力、重力、回転速度、磁場強度、車両速度などのパラメータをキャプチャする。
このデータセットは、道路安全、インフラ整備、交通管理、都市計画を強化するように設計されている。
論文 参考訳(メタデータ) (2024-11-11T19:15:29Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms [0.0]
本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T04:11:45Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Evaluating Adversarial Attacks on Driving Safety in Vision-Based
Autonomous Vehicles [21.894836150974093]
近年、多くのディープラーニングモデルが自動運転に採用されている。
近年の研究では、敵対的攻撃がディープラーニングに基づく3次元物体検出モデルの検出精度を著しく低下させることが示されている。
論文 参考訳(メタデータ) (2021-08-06T04:52:09Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。