論文の概要: TriQDef: Disrupting Semantic and Gradient Alignment to Prevent Adversarial Patch Transferability in Quantized Neural Networks
- arxiv url: http://arxiv.org/abs/2508.12132v1
- Date: Sat, 16 Aug 2025 18:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.57926
- Title: TriQDef: Disrupting Semantic and Gradient Alignment to Prevent Adversarial Patch Transferability in Quantized Neural Networks
- Title(参考訳): TriQDef: 量子化ニューラルネットワークにおける対向的パッチ転送性を防止すべく、意味的およびグラディエントなアライメントを乱す
- Authors: Amira Guesmi, Bassem Ouni, Muhammad Shafique,
- Abstract要約: 量子ニューラルネットワーク(QNN)は、エッジとリソース制約のある環境にますますデプロイされている。
TriQDefは、QNN間のパッチベースの敵攻撃の転送可能性を破壊するために設計された、三段階の量子化対応防衛フレームワークである。
- 参考スコア(独自算出の注目度): 3.962831477787584
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantized Neural Networks (QNNs) are increasingly deployed in edge and resource-constrained environments due to their efficiency in computation and memory usage. While shown to distort the gradient landscape and weaken conventional pixel-level attacks, it provides limited robustness against patch-based adversarial attacks-localized, high-saliency perturbations that remain surprisingly transferable across bit-widths. Existing defenses either overfit to fixed quantization settings or fail to address this cross-bit generalization vulnerability. We introduce \textbf{TriQDef}, a tri-level quantization-aware defense framework designed to disrupt the transferability of patch-based adversarial attacks across QNNs. TriQDef consists of: (1) a Feature Disalignment Penalty (FDP) that enforces semantic inconsistency by penalizing perceptual similarity in intermediate representations; (2) a Gradient Perceptual Dissonance Penalty (GPDP) that explicitly misaligns input gradients across bit-widths by minimizing structural and directional agreement via Edge IoU and HOG Cosine metrics; and (3) a Joint Quantization-Aware Training Protocol that unifies these penalties within a shared-weight training scheme across multiple quantization levels. Extensive experiments on CIFAR-10 and ImageNet demonstrate that TriQDef reduces Attack Success Rates (ASR) by over 40\% on unseen patch and quantization combinations, while preserving high clean accuracy. Our findings underscore the importance of disrupting both semantic and perceptual gradient alignment to mitigate patch transferability in QNNs.
- Abstract(参考訳): 量子ニューラルネットワーク(QNN)は、計算とメモリ使用率の効率のため、エッジおよびリソース制約のある環境にますますデプロイされている。
勾配の風景を歪ませたり、従来のピクセルレベルの攻撃を弱めたりすることはできるが、パッチベースの敵攻撃を局所化し、ビット幅にわたって驚くほど移動可能な高可用性な摂動に対して、限られた堅牢性を提供する。
既存の防御は、固定量子化設定に過度に適合するか、このクロスビット一般化脆弱性に対処できないかのいずれかである。
QNN間のパッチベースの敵攻撃の伝達性を阻害するように設計された3レベル量子化対応防衛フレームワークである「textbf{TriQDef}」を紹介する。
TriQDefは,(1)中間表現における知覚的類似性を罰することによる意味的不一致を強制する特徴不一致刑(FDP),(2)エッジIoUとHOG Cosineメトリクスによる構造的および方向的合意を最小化することによりビット幅にわたる入力勾配を明示的に誤認するグラディエント知覚不一致刑(GPDP),(3)これらの罰を複数の量子化レベルにわたる共有重み付きトレーニングスキーム内で統一する合同量子化認識訓練プロトコルからなる。
CIFAR-10とImageNetの大規模な実験により、TriQDefは、鮮明な精度を維持しながら、目に見えないパッチと量子化の組み合わせに対して、ASR(Attack Success Rates)を40%以上削減することを示した。
本研究は,QNNにおけるパッチ転送性を軽減するために,意味的・知覚的勾配調整を阻害することの重要性を強調した。
関連論文リスト
- Overlap-Aware Feature Learning for Robust Unsupervised Domain Adaptation for 3D Semantic Segmentation [9.578322021478426]
3Dポイントクラウドセマンティックセグメンテーション(PCSS)は、ロボットシステムと自律運転における環境認識の基礎である。
既存の方法は、現実の摂動(例えば、雪、霧、雨)と敵の歪みに固有の脆弱性を批判的に見落としている。
この研究は、まず、現在のPCSS-UDAロバスト性を損なう2つの本質的な制限を特定する。
1) 強靭性指標による敵攻撃・破壊タイプに対するレジリエンスを定量化する頑健性評価モデル,2) 注意誘導重複抑制による識別構造を維持しつつ,双方向のドメインマッピングを可能にする非可逆的注意アライメントモジュール(IAAM) とからなる三部構成のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-02T12:16:23Z) - Breaking the Limits of Quantization-Aware Defenses: QADT-R for Robustness Against Patch-Based Adversarial Attacks in QNNs [3.962831477787584]
量子ニューラルネットワーク(QNN)は、モデルサイズと計算コストを削減するための有望なソリューションとして登場した。
本研究は, 量子化モデルにおいて, 逆パッチは高い転送性を有することを示す。
本稿では,QADT-R(Quantization-Aware Defense Training with Randomization)を提案する。
論文 参考訳(メタデータ) (2025-03-10T08:43:36Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - David and Goliath: An Empirical Evaluation of Attacks and Defenses for QNNs at the Deep Edge [0.9606184401853288]
量子化(quantization)は、MCUへのニューラルネットワークの展開を可能にするための、確立されたテクニックである。
我々は,非拘束QNNからの攻撃と防御の有効性を実証的に評価した。
論文 参考訳(メタデータ) (2024-04-08T17:14:32Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing
its Gradient Estimator Bias [65.13042449121411]
実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。
有限ヌード法に固有のEPの勾配推定のバイアスがこの現象の原因であることを示す。
これらの手法を適用し、非対称な前方および後方接続を持つアーキテクチャをトレーニングし、13.2%のテストエラーを発生させる。
論文 参考訳(メタデータ) (2020-06-06T09:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。