論文の概要: Exploring the Robustness and Transferability of Patch-Based Adversarial Attacks in Quantized Neural Networks
- arxiv url: http://arxiv.org/abs/2411.15246v1
- Date: Fri, 22 Nov 2024 07:05:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:17:59.964740
- Title: Exploring the Robustness and Transferability of Patch-Based Adversarial Attacks in Quantized Neural Networks
- Title(参考訳): 量子ニューラルネットワークにおけるパッチベース対向攻撃のロバスト性と伝達性の検討
- Authors: Amira Guesmi, Bassem Ouni, Muhammad Shafique,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、リソース制約のあるプラットフォームへのディープラーニングモデルの効率的なデプロイにますます利用されている。
量子化はモデルのサイズと計算要求を減少させるが、その逆の堅牢性への影響は依然として不十分である。
局所的で視認性の高い摂動を特徴とするパッチベースの攻撃は、その伝達性とレジリエンスのために重大なセキュリティリスクを生じさせる。
- 参考スコア(独自算出の注目度): 3.962831477787584
- License:
- Abstract: Quantized neural networks (QNNs) are increasingly used for efficient deployment of deep learning models on resource-constrained platforms, such as mobile devices and edge computing systems. While quantization reduces model size and computational demands, its impact on adversarial robustness-especially against patch-based attacks-remains inadequately addressed. Patch-based attacks, characterized by localized, high-visibility perturbations, pose significant security risks due to their transferability and resilience. In this study, we systematically evaluate the vulnerability of QNNs to patch-based adversarial attacks across various quantization levels and architectures, focusing on factors that contribute to the robustness of these attacks. Through experiments analyzing feature representations, quantization strength, gradient alignment, and spatial sensitivity, we find that patch attacks consistently achieve high success rates across bitwidths and architectures, demonstrating significant transferability even in heavily quantized models. Contrary to the expectation that quantization might enhance adversarial defenses, our results show that QNNs remain highly susceptible to patch attacks due to the persistence of distinct, localized features within quantized representations. These findings underscore the need for quantization-aware defenses that address the specific challenges posed by patch-based attacks. Our work contributes to a deeper understanding of adversarial robustness in QNNs and aims to guide future research in developing secure, quantization-compatible defenses for real-world applications.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、モバイルデバイスやエッジコンピューティングシステムなどのリソース制約のあるプラットフォームへのディープラーニングモデルの効率的なデプロイに、ますます使用されている。
量子化はモデルのサイズと計算要求を減らすが、敵の堅牢性、特にパッチベースの攻撃に対する影響は不十分である。
局所的で視認性の高い摂動を特徴とするパッチベースの攻撃は、その伝達性とレジリエンスのために重大なセキュリティリスクを生じさせる。
本研究では,これらの攻撃の堅牢性に寄与する要因に着目し,様々な量子化レベルとアーキテクチャにわたるパッチベースの敵攻撃に対するQNNの脆弱性を系統的に評価する。
特徴表現、量子化強度、勾配アライメント、空間感度を解析した結果、パッチアタックはビット幅やアーキテクチャ全体にわたる高い成功率を一貫して達成し、高量子化モデルにおいても有意な伝達性を示すことが判明した。
量子化が敵防御を強化するという期待とは対照的に、QNNは量子化表現内の異なる局所的特徴の持続性のため、パッチ攻撃の影響を受けやすいままである。
これらの知見は、パッチベースの攻撃によって引き起こされる特定の課題に対処する量子化対応防御の必要性を浮き彫りにしている。
我々の研究は、QNNにおける敵の堅牢性に関するより深い理解に寄与し、現実世界のアプリケーションのためのセキュアで量子化に適合したディフェンスの開発において、今後の研究を導くことを目的としている。
関連論文リスト
- Beyond Dropout: Robust Convolutional Neural Networks Based on Local Feature Masking [6.189613073024831]
本研究では、畳み込みニューラルネットワーク(CNN)の性能向上を目的とした、革新的なローカル特徴マスキング(LFM)戦略を紹介する。
トレーニング期間中、我々はCNNの浅い層にランダムな特徴マスキングを戦略的に組み込む。
LFMは、ある意味的特徴の欠如を補うために残りの特徴を活用することで、ネットワークを補完する。
論文 参考訳(メタデータ) (2024-07-18T16:25:16Z) - Adversarial Robustness Guarantees for Quantum Classifiers [0.4934360430803066]
本稿では,QMLアルゴリズムの量子特性が,このような攻撃に対する基本的保護を導出できることを示す。
我々は、この保護の量子源を特定するために、多体物理学のツールを活用している。
論文 参考訳(メタデータ) (2024-05-16T18:00:01Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - RobustMQ: Benchmarking Robustness of Quantized Models [54.15661421492865]
量子化は、限られたリソースを持つデバイスにディープニューラルネットワーク(DNN)をデプロイする上で不可欠なテクニックである。
我々は、ImageNet上の様々なノイズ(障害攻撃、自然破壊、系統的なノイズ)に対する量子化モデルのロバスト性について、徹底的に評価した。
我々の研究は、モデルとその実世界のシナリオにおける展開の堅牢な定量化を推し進めることに貢献している。
論文 参考訳(メタデータ) (2023-08-04T14:37:12Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z) - Adversarial Attack on Deep Product Quantization Network for Image
Retrieval [74.85736968193879]
近年,高速画像検索においてDPQN (Deep Product Quantization Network) が注目されている。
近年の研究では、ディープニューラルネットワーク(DNN)は、小さく、悪意のある設計の摂動によって入力に弱いことが示されている。
本稿では,製品量子化に基づく検索システムに対して,製品量子化逆生成(PQ-AG)を提案する。
論文 参考訳(メタデータ) (2020-02-26T09:25:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。