論文の概要: PatchBlock: A Lightweight Defense Against Adversarial Patches for Embedded EdgeAI Devices
- arxiv url: http://arxiv.org/abs/2601.00367v1
- Date: Thu, 01 Jan 2026 15:04:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.404756
- Title: PatchBlock: A Lightweight Defense Against Adversarial Patches for Embedded EdgeAI Devices
- Title(参考訳): PatchBlock:EdgeAIの組み込みデバイスに対する敵のパッチに対する軽量防御
- Authors: Nandish Chattopadhyay, Abdul Basit, Amira Guesmi, Muhammad Abdullah Hanif, Bassem Ouni, Muhammad Shafique,
- Abstract要約: アドリアックは、EdgeAIアプリケーションにマシンラーニングモデルを確実にデプロイする上で、大きな課題となる。
画像中の逆パッチを検出し中和するフレームワークであるPatchBlockを提案する。
PatchBlockは頑丈さを継続的に改善し、強力なパッチアタックのモデル精度の77%を回復することを示す。
- 参考スコア(独自算出の注目度): 5.082257334702858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks pose a significant challenge to the reliable deployment of machine learning models in EdgeAI applications, such as autonomous driving and surveillance, which rely on resource-constrained devices for real-time inference. Among these, patch-based adversarial attacks, where small malicious patches (e.g., stickers) are applied to objects, can deceive neural networks into making incorrect predictions with potentially severe consequences. In this paper, we present PatchBlock, a lightweight framework designed to detect and neutralize adversarial patches in images. Leveraging outlier detection and dimensionality reduction, PatchBlock identifies regions affected by adversarial noise and suppresses their impact. It operates as a pre-processing module at the sensor level, efficiently running on CPUs in parallel with GPU inference, thus preserving system throughput while avoiding additional GPU overhead. The framework follows a three-stage pipeline: splitting the input into chunks (Chunking), detecting anomalous regions via a redesigned isolation forest with targeted cuts for faster convergence (Separating), and applying dimensionality reduction on the identified outliers (Mitigating). PatchBlock is both model- and patch-agnostic, can be retrofitted to existing pipelines, and integrates seamlessly between sensor inputs and downstream models. Evaluations across multiple neural architectures, benchmark datasets, attack types, and diverse edge devices demonstrate that PatchBlock consistently improves robustness, recovering up to 77% of model accuracy under strong patch attacks such as the Google Adversarial Patch, while maintaining high portability and minimal clean accuracy loss. Additionally, PatchBlock outperforms the state-of-the-art defenses in efficiency, in terms of computation time and energy consumption per sample, making it suitable for EdgeAI applications.
- Abstract(参考訳): 敵攻撃は、リアルタイム推論にリソース制約のあるデバイスに依存する自動運転や監視など、EdgeAIアプリケーションに機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
それらの中で、小さな悪意のあるパッチ(ステッカーなど)をオブジェクトに適用するパッチベースの敵攻撃は、ニューラルネットワークを欺いて、潜在的に深刻な結果をもたらす可能性のある誤った予測を行う。
本稿では,画像中の逆パッチの検出と中和を目的とした軽量フレームワークであるPatchBlockを提案する。
PatchBlockは、外れ値の検出と次元の削減を活用して、敵のノイズに影響を受ける領域を特定し、その影響を抑える。
センサーレベルで前処理モジュールとして動作し、GPU推論と並行してCPU上で効率よく実行される。
このフレームワークは3段階のパイプラインに従っており、入力をチャンク(チャンキング)に分割し、より高速な収束(分離)のためにターゲットカットを施した再設計された孤立林を介して異常領域を検出する。
PatchBlockはモデルとパッチに依存しないため、既存のパイプラインに適合し、センサー入力と下流モデルとをシームレスに統合することができる。
複数のニューラルネットワーク、ベンチマークデータセット、アタックタイプ、さまざまなエッジデバイスに対する評価は、PatchBlockが一貫して堅牢性を改善し、Google Adversarial Patchのような強力なパッチアタックの下でモデル精度の77%を回復し、高いポータビリティと最小限のクリーンな精度の損失を維持していることを示している。
さらに、PatchBlockは、計算時間とサンプルあたりのエネルギー消費量の点で、最先端の防御性能よりも優れており、EdgeAIアプリケーションに適している。
関連論文リスト
- SuperPure: Efficient Purification of Localized and Distributed Adversarial Patches via Super-Resolution GAN Models [0.5906031288935515]
本稿では,SuperPureと呼ばれる敵パッチ攻撃に対する新たな防御戦略を提案する。
マスクは、GANベースの超解像度スキームを活用して、敵のパッチから画像を徐々に浄化する。
評価の結果,SuperPureは最先端の3つの方向を推し進めている。
論文 参考訳(メタデータ) (2025-05-22T07:21:04Z) - Stealthy Patch-Wise Backdoor Attack in 3D Point Cloud via Curvature Awareness [52.780853311462636]
バックドア攻撃はディープニューラルネットワーク(DNN)に深刻な脅威をもたらす
既存の3Dポイントのクラウドバックドア攻撃は、サンプルワイドなグローバルな修正に依存している。
我々は,3Dポイントクラウド用のパッチワイドバックドアアタックフレームワークであるStealthy Patch-Wise Backdoor Attack (SPBA)を提案する。
論文 参考訳(メタデータ) (2025-03-12T12:30:59Z) - SoftPatch+: Fully Unsupervised Anomaly Classification and Segmentation [84.07909405887696]
本論文は、完全教師なし産業異常検出(すなわち、ノイズデータ付き教師なしAD)を初めて検討したものである。
メモリベースの非教師なしAD手法であるSoftPatchとSoftPatch+を提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
様々なノイズシナリオで実施された総合的な実験により、SoftPatchとSoftPatch+はMVTecAD、ViSA、BTADのベンチマークで最先端のADメソッドよりも優れていた。
論文 参考訳(メタデータ) (2024-12-30T11:16:49Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Segment and Complete: Defending Object Detectors against Adversarial
Patch Attacks with Robust Patch Detection [142.24869736769432]
敵のパッチ攻撃は最先端の物体検出器に深刻な脅威をもたらす。
パッチ攻撃に対して物体検出器を防御するフレームワークであるSegment and Complete Defense (SAC)を提案する。
SACは、物理的パッチ攻撃の標的攻撃成功率を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-12-08T19:18:48Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - HASI: Hardware-Accelerated Stochastic Inference, A Defense Against
Adversarial Machine Learning Attacks [1.9212368803706579]
本稿では,逆入力の検出に推論と呼ぶ手法を用いたハードウェアアクセラレーション・ディフェンスHASIを提案する。
その結果, 平均87%の逆検出率が, 最先端手法の検出率を上回ることがわかった。
論文 参考訳(メタデータ) (2021-06-09T14:31:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。