論文の概要: Man-in-the-Middle Attack against Object Detection Systems
- arxiv url: http://arxiv.org/abs/2208.07174v1
- Date: Mon, 15 Aug 2022 13:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:45:16.971470
- Title: Man-in-the-Middle Attack against Object Detection Systems
- Title(参考訳): 物体検出システムに対する中間者攻撃
- Authors: Han Wu, Sareh Rowlands and Johan Wahlstrom
- Abstract要約: 我々の研究は、物体検出システムを攻撃するために、CryptographyのMain-in-the-Middle攻撃のアイデアを借用している。
本研究は,自律運転などの安全クリティカルシステムにおけるディープラーニングモデルの適用について,深刻な懸念を提起するものである。
- 参考スコア(独自算出の注目度): 11.881127318645659
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Is deep learning secure for robots? As embedded systems have access to more
powerful CPUs and GPUs, deep-learning-enabled object detection systems become
pervasive in robotic applications. Meanwhile, prior research unveils that deep
learning models are vulnerable to adversarial attacks. Does this put real-world
robots at threat? Our research borrows the idea of the Main-in-the-Middle
attack from Cryptography to attack an object detection system. Our experimental
results prove that we can generate a strong Universal Adversarial Perturbation
(UAP) within one minute and then use the perturbation to attack a detection
system via the Man-in-the-Middle attack. Our findings raise a serious concern
over the applications of deep learning models in safety-critical systems such
as autonomous driving.
- Abstract(参考訳): ディープラーニングはロボットにとって安全か?
組み込みシステムはより強力なCPUやGPUにアクセスするため、ディープラーニング可能なオブジェクト検出システムはロボットアプリケーションで広く普及する。
一方、以前の研究では、ディープラーニングモデルが敵の攻撃に弱いことが明らかにされている。
これが現実世界のロボットを脅かすのか?
本研究は,オブジェクト検出システムを攻撃するための暗号から,中間者攻撃の考え方を借用する。
実験の結果,我々は1分以内に強い普遍的敵性摂動(uap)を生成し,その摂動を用いて中間者攻撃による検出システムを攻撃することができた。
本研究は、自動運転などの安全クリティカルなシステムにおけるディープラーニングモデルの適用に関する深刻な懸念を提起する。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Investigation of Multi-stage Attack and Defense Simulation for Data Synthesis [2.479074862022315]
本研究では,電力網における多段階サイバー攻撃の合成データを生成するモデルを提案する。
攻撃者のステップのシーケンスをモデル化するためにアタックツリーを使用し、ディフェンダーのアクションを組み込むゲーム理論のアプローチを使用する。
論文 参考訳(メタデータ) (2023-12-21T09:54:18Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT [5.077661193116692]
テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
論文 参考訳(メタデータ) (2021-04-26T09:36:29Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。