論文の概要: Emerging AI Security Threats for Autonomous Cars -- Case Studies
- arxiv url: http://arxiv.org/abs/2109.04865v1
- Date: Fri, 10 Sep 2021 13:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:39:11.560874
- Title: Emerging AI Security Threats for Autonomous Cars -- Case Studies
- Title(参考訳): 自動運転車のAIセキュリティの新たな脅威 - ケーススタディ
- Authors: Shanthi Lekkala, Tanya Motwani, Manojkumar Parmar, Amit Phadke
- Abstract要約: モデル抽出攻撃と、自律走行車に侵入する汎用型キルチェーンについて論じる。
モデル盗難のリスクを管理し軽減するための戦略を検討することが不可欠である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence has made a significant contribution to autonomous
vehicles, from object detection to path planning. However, AI models require a
large amount of sensitive training data and are usually computationally
intensive to build. The commercial value of such models motivates attackers to
mount various attacks. Adversaries can launch model extraction attacks for
monetization purposes or step-ping-stone towards other attacks like model
evasion. In specific cases, it even results in destroying brand reputation,
differentiation, and value proposition. In addition, IP laws and AI-related
legalities are still evolving and are not uniform across countries. We discuss
model extraction attacks in detail with two use-cases and a generic kill-chain
that can compromise autonomous cars. It is essential to investigate strategies
to manage and mitigate the risk of model theft.
- Abstract(参考訳): 人工知能は、物体検出から経路計画まで、自動運転車に多大な貢献をした。
しかし、aiモデルは大量のセンシティブなトレーニングデータを必要とし、通常は計算集約的に構築される。
このようなモデルの商業的価値は、攻撃者に様々な攻撃を仕掛ける動機を与える。
広告主は、収益化の目的でモデル抽出攻撃を起動したり、モデル回避のような他の攻撃に対して一歩踏み出すことができる。
特定のケースでは、ブランドの評判、差別化、価値提案を破壊することさえある。
さらに、IP法やAI関連の法律はまだ進化しており、各国で統一されていない。
モデル抽出攻撃を,2つのユースケースと,自律走行車に侵入可能な汎用型キルチェーンで詳細に論じる。
モデル盗難のリスクを管理し軽減するための戦略を検討することが不可欠である。
関連論文リスト
- Data-Free Model-Related Attacks: Unleashing the Potential of Generative AI [21.815149263785912]
本稿では、モデル抽出、メンバーシップ推論、モデル反転を含むモデル関連攻撃を容易にするために生成AIを導入する。
本研究は,データフリーかつブラックボックス方式で,画像モデルとテキストモデルの両方に対して,さまざまなモデル関連攻撃を行うことができることを示す。
この研究は、ディープラーニングモデルに対する生成AIによる攻撃に関連する潜在的なリスクについて、コミュニティに重要な早期警告を提供する。
論文 参考訳(メタデータ) (2025-01-28T03:12:57Z) - Is Your Autonomous Vehicle Safe? Understanding the Threat of Electromagnetic Signal Injection Attacks on Traffic Scene Perception [3.8225514249914734]
電磁信号注入攻撃(ESIA)は、自動運転車が撮影した画像を歪めることができる。
我々の研究は、異なるモデル underA のパフォーマンスを分析し、攻撃に対する脆弱性を明らかにします。
我々の研究は、より堅牢なAIモデルの開発を促進することを目的として、包括的なシミュレーションと評価のフレームワークを提供する。
論文 参考訳(メタデータ) (2025-01-09T13:44:42Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - L-AutoDA: Leveraging Large Language Models for Automated Decision-based Adversarial Attacks [16.457528502745415]
L-AutoDAは、Large Language Models (LLM) の生成能力を活用して、敵攻撃の設計を自動化する新しいアプローチである。
L-AutoDAは、進化的なフレームワークでLLMと反復的に対話することにより、人間の努力を伴わずに、競合する攻撃アルゴリズムを効率的に設計する。
CIFAR-10データセットに対するL-AutoDAの有効性を実証し、成功率と計算効率の両面でベースライン法よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-01-27T07:57:20Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - An Analysis of Adversarial Attacks and Defenses on Autonomous Driving
Models [15.007794089091616]
畳み込みニューラルネットワーク(CNN)は、自律運転において重要な要素である。
これまでの研究では、CNNベースの分類モデルは敵の攻撃に弱いことが示されている。
本稿では,3つの駆動モデルに対する5つの敵攻撃と4つの防御手法の詳細な解析を行う。
論文 参考訳(メタデータ) (2020-02-06T09:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。