論文の概要: A Taxonomy of System-Level Attacks on Deep Learning Models in Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2412.04510v1
- Date: Wed, 04 Dec 2024 09:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:43.511081
- Title: A Taxonomy of System-Level Attacks on Deep Learning Models in Autonomous Vehicles
- Title(参考訳): 自動車の深層学習モデルにおけるシステムレベル攻撃の分類
- Authors: Masoud Jamshidiyan Tehrani, Jinhan Kim, Rosmael Zidane Lekeufack Foulefack, Alessandro Marchetto, Paolo Tonella,
- Abstract要約: 自動運転車に対するシステムレベルの攻撃の最初の分類を提示する。
私たちはまず8,831件の論文を集め、それから1,125件の候補者にフィルタリングすることで分類を構築しました。
その結果得られた分類には、上位12のカテゴリーといくつかのサブカテゴリが含まれる。
- 参考スコア(独自算出の注目度): 45.754302253504626
- License:
- Abstract: The advent of deep learning and its astonishing performance in perception tasks, such as object recognition and classification, has enabled its usage in complex systems, including autonomous vehicles. On the other hand, deep learning models are susceptible to mis-predictions when small, adversarial changes are introduced into their input. Such mis-predictions can be triggered in the real world and can propagate to a failure of the entire system, as opposed to a localized mis-prediction. In recent years, a growing number of research works have investigated ways to mount attacks against autonomous vehicles that exploit deep learning components for perception tasks. Such attacks are directed toward elements of the environment where these systems operate and their effectiveness is assessed in terms of system-level failures triggered by them. There has been however no systematic attempt to analyze and categorize such attacks. In this paper, we present the first taxonomy of system-level attacks against autonomous vehicles. We constructed our taxonomy by first collecting 8,831 papers, then filtering them down to 1,125 candidates and eventually selecting a set of 19 highly relevant papers that satisfy all inclusion criteria. Then, we tagged them with taxonomy categories, involving three assessors per paper. The resulting taxonomy includes 12 top-level categories and several sub-categories. The taxonomy allowed us to investigate the attack features, the most attacked components, the underlying threat models, and the propagation chains from input perturbation to system-level failure. We distilled several lessons for practitioners and identified possible directions for future work for researchers.
- Abstract(参考訳): ディープラーニングの出現と、物体認識や分類などの認識タスクにおける驚くべきパフォーマンスは、自動運転車を含む複雑なシステムでの使用を可能にした。
一方、深層学習モデルは、入力に小さな敵対的な変化が導入された場合、誤予測の影響を受けやすい。
このような誤予測は現実世界で引き起こされ、局所的な誤予測とは対照的にシステム全体の失敗に伝播する。
近年、多くの研究が、認識タスクにディープラーニングコンポーネントを利用する自動運転車に対する攻撃をマウントする方法を調査している。
このような攻撃は、これらのシステムが動作している環境の要素に向けられ、その効果は、それらによって引き起こされるシステムレベルの障害の観点から評価される。
しかし、このような攻撃を分析し分類する体系的な試みは行われていない。
本稿では,自動運転車に対するシステムレベルの攻撃の最初の分類法を示す。
我々はまずまず8,831件の論文を収集し、1,125件の候補者にフィルタリングし、最終的にはすべての包含基準を満たす19件の高関連論文を選択した。
そして,各紙に3つの評価項目を含む分類カテゴリーをタグ付けした。
その結果得られた分類には、上位12のカテゴリーといくつかのサブカテゴリが含まれる。
分類学により、攻撃の特徴、最も攻撃されたコンポーネント、基盤となる脅威モデル、入力摂動からシステムレベルの障害への伝播チェーンなどを調べることができた。
実践者のためにいくつかのレッスンを蒸留し,今後の研究の道筋を特定した。
関連論文リスト
- Inference Attacks: A Taxonomy, Survey, and Promising Directions [44.290208239143126]
この調査は、ML-as-a-serviceにおける攻撃の詳細な包括的推測とそれに対応する対策を提供する。
まず,コミュニティ研究状況に基づく3MP分類法を提案する。
また、各種類の推論攻撃の長所と短所、ワークフロー、対策、およびそれらが他の攻撃とどのように相互作用するかを分析する。
論文 参考訳(メタデータ) (2024-06-04T07:06:06Z) - Taxonomy for Cybersecurity Threat Attributes and Countermeasures in Smart Manufacturing Systems [0.0]
既存の攻撃分類は、限られた攻撃範囲と限定的な脅威属性のみに焦点を当てている。
本稿では,製造システムにおけるサイバーセキュリティ脅威の包括的理解と評価を目的とした包括的攻撃分類法を提案する。
論文 参考訳(メタデータ) (2023-12-30T02:11:02Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Hierarchical Classification of Research Fields in the "Web of Science" Using Deep Learning [15.915719490494876]
本稿では,その抽象概念を用いて学術出版物を自動分類する階層分類システムを提案する。
Microsoft Academic Graphの1億6000万の抽象スニペットの中で、44の規律、718のフィールド、1,485のサブフィールドを区別している。
分類精度は77.13%で90%、シングルラベルとマルチラベルの分類では78.19%である。
論文 参考訳(メタデータ) (2023-02-01T11:59:17Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - Anomaly Detection in Cybersecurity: Unsupervised, Graph-Based and
Supervised Learning Methods in Adversarial Environments [63.942632088208505]
現在の運用環境に固有ののは、敵対的機械学習の実践である。
本研究では,教師なし学習とグラフに基づく異常検出の可能性を検討する。
我々は,教師付きモデルの訓練時に,現実的な対人訓練機構を組み込んで,対人環境における強力な分類性能を実現する。
論文 参考訳(メタデータ) (2021-05-14T10:05:10Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。