論文の概要: Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers?
- arxiv url: http://arxiv.org/abs/2405.08466v1
- Date: Tue, 14 May 2024 09:42:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 14:38:24.815345
- Title: Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers?
- Title(参考訳): Work-in-Progress: Crash Course: Can (Under Attack) autonomous Driving Beat Human Drivers?
- Authors: Francesco Marchiori, Alessandro Brighente, Mauro Conti,
- Abstract要約: 本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
- 参考スコア(独自算出の注目度): 60.51287814584477
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous driving is a research direction that has gained enormous traction in the last few years thanks to advancements in Artificial Intelligence (AI). Depending on the level of independence from the human driver, several studies show that Autonomous Vehicles (AVs) can reduce the number of on-road crashes and decrease overall fuel emissions by improving efficiency. However, security research on this topic is mixed and presents some gaps. On one hand, these studies often neglect the intrinsic vulnerabilities of AI algorithms, which are known to compromise the security of these systems. On the other, the most prevalent attacks towards AI rely on unrealistic assumptions, such as access to the model parameters or the training dataset. As such, it is unclear if autonomous driving can still claim several advantages over human driving in real-world applications. This paper evaluates the inherent risks in autonomous driving by examining the current landscape of AVs and establishing a pragmatic threat model. Through our analysis, we develop specific claims highlighting the delicate balance between the advantages of AVs and potential security challenges in real-world scenarios. Our evaluation serves as a foundation for providing essential takeaway messages, guiding both researchers and practitioners at various stages of the automation pipeline. In doing so, we contribute valuable insights to advance the discourse on the security and viability of autonomous driving in real-world applications.
- Abstract(参考訳): 自律運転は、人工知能(AI)の進歩により、ここ数年で大きな注目を集めている研究方向である。
人間の運転者からの独立度によっては、自律走行車(AV)が道路上での衝突回数を減らし、効率を向上させることで全体の燃料排出量を減少させることができることがいくつかの研究で示されている。
しかし、このトピックに関するセキュリティ研究は混在しており、いくつかのギャップがある。
一方、これらの研究はAIアルゴリズムの本質的な脆弱性を無視することが多く、これらのシステムのセキュリティを損なうことが知られている。
一方、AIに対する最も一般的な攻撃は、モデルパラメータやトレーニングデータセットへのアクセスなど、非現実的な仮定に依存している。
そのため、現実の応用において、自動運転が人間の運転よりもいくつかの利点を主張できるかどうかは不明だ。
本稿では,AVの現況を把握し,現実的な脅威モデルを確立することにより,自律運転の本質的なリスクを評価する。
分析を通じて、実世界のシナリオにおけるAVの利点と潜在的なセキュリティ上の課題との微妙なバランスを浮き彫りにする特定のクレームを開発する。
私たちの評価は、自動化パイプラインのさまざまな段階において、研究者と実践者の両方を指導する、重要なメッセージを提供する基盤として役立ちます。
そこで我々は,現実のアプリケーションにおける自律運転の安全性と実現可能性に関する議論を進めるために,貴重な洞察を提供する。
関連論文リスト
- Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Safety Implications of Explainable Artificial Intelligence in End-to-End Autonomous Driving [4.1636282808157254]
エンドツーエンドの学習パイプラインは、高度に自律的な車両の開発におけるパラダイムシフトを徐々に生み出している。
現代の学習手法によるリアルタイム意思決定における解釈可能性の欠如は、ユーザの信頼を阻害し、そのような車両の広範な展開と商業化を阻害する。
この調査は、質問に答えようとしている。いつ、どのように説明がエンドツーエンドの自動運転の安全性を改善することができるのか?
論文 参考訳(メタデータ) (2024-03-18T18:49:20Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Explainable Artificial Intelligence for Autonomous Driving: A Comprehensive Overview and Field Guide for Future Research Directions [8.012552653212687]
この研究は、自律運転のための説明可能な人工知能(XAI)アプローチの開発に光を当てている。
まず、XAIをベースとした自動運転における最先端および新興のアプローチの概要について概説する。
次に、説明可能なエンドツーエンド自動運転に不可欠な要素を考察する概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-21T22:51:37Z) - Towards Safe, Explainable, and Regulated Autonomous Driving [11.043966021881426]
本稿では、自律制御、説明可能なAI(XAI)、規制コンプライアンスを統合するフレームワークを提案する。
フレームワークの目標を達成するのに役立つ、関連するXAIアプローチについて説明します。
論文 参考訳(メタデータ) (2021-11-20T05:06:22Z) - A Survey on Autonomous Vehicle Control in the Era of Mixed-Autonomy:
From Physics-Based to AI-Guided Driving Policy Learning [7.881140597011731]
本稿では、人工知能(AI)から自律走行車(AV)制御のための輸送工学分野への潜在的に有用なモデルと方法論の紹介と概要を提供する。
我々は、AI誘導手法の最先端の応用について議論し、機会と障害を特定し、オープンな質問を提起し、AIが混合自律において役割を果たす可能性のあるビルディングブロックとエリアを提案する。
論文 参考訳(メタデータ) (2020-07-10T04:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。