論文の概要: Fault Sneaking Attack: a Stealthy Framework for Misleading Deep Neural Networks
- arxiv url: http://arxiv.org/abs/1905.12032v2
- Date: Fri, 04 Jul 2025 00:44:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 14:32:07.474831
- Title: Fault Sneaking Attack: a Stealthy Framework for Misleading Deep Neural Networks
- Title(参考訳): 障害スニーキング攻撃: ニューラルネットワークのミススリーディングのためのステルスフレームワーク
- Authors: Pu Zhao, Siyue Wang, Cheng Gongye, Yanzhi Wang, Yunsi Fei, Xue Lin,
- Abstract要約: 深層ニューラルネットワーク(DNN)における障害スニーカー攻撃を提案する。
敵は、DNNパラメータを変更することで、特定の入力画像を任意のターゲットラベルに誤分類することを目的としている。
提案するフレームワークは,総合的なテスト精度を損なうことなく,複数のスニーピング障害を注入できることを示す。
- 参考スコア(独自算出の注目度): 46.731211379810105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the great achievements of deep neural networks (DNNs), the vulnerability of state-of-the-art DNNs raises security concerns of DNNs in many application domains requiring high reliability.We propose the fault sneaking attack on DNNs, where the adversary aims to misclassify certain input images into any target labels by modifying the DNN parameters. We apply ADMM (alternating direction method of multipliers) for solving the optimization problem of the fault sneaking attack with two constraints: 1) the classification of the other images should be unchanged and 2) the parameter modifications should be minimized. Specifically, the first constraint requires us not only to inject designated faults (misclassifications), but also to hide the faults for stealthy or sneaking considerations by maintaining model accuracy. The second constraint requires us to minimize the parameter modifications (using L0 norm to measure the number of modifications and L2 norm to measure the magnitude of modifications). Comprehensive experimental evaluation demonstrates that the proposed framework can inject multiple sneaking faults without losing the overall test accuracy performance.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の大きな成果にもかかわらず、最先端のDNNの脆弱性は、高い信頼性を必要とする多くのアプリケーションドメインにおいて、DNNのセキュリティ上の懸念を提起する。
障害スニーカー攻撃の最適化問題を2つの制約で解くため,ADMM (Alternating direction method of multipliers) を適用した。
1) 他の画像の分類は変更すべきであり、
2)パラメータの変更は最小化すべきである。
特に、第1の制約は、指定された障害(ミス分類)を注入するだけでなく、モデル精度を維持して、ステルスやスニークの考慮を隠蔽することを要求する。
第2の制約は、パラメータ修正を最小化することを要求する(修正の数を測定するためにL0ノルム、修正の規模を測定するためにL2ノルム)。
総合的な実験的評価は,提案フレームワークが総合的なテスト精度を損なうことなく,複数のスニーク欠陥を注入できることを実証している。
関連論文リスト
- A Few Large Shifts: Layer-Inconsistency Based Minimal Overhead Adversarial Example Detection [9.335304254034401]
我々は、ターゲットモデル自体の内部の階層的不整合を利用して、軽量なプラグイン検出フレームワークを導入する。
本手法は, 計算オーバーヘッドを無視し, 正確さを損なうことなく, 最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-19T00:48:53Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - A Mask-Based Adversarial Defense Scheme [3.759725391906588]
敵対的攻撃はディープニューラルネットワーク(DNN)の機能と精度を妨げる
敵攻撃による負の効果を軽減するため,DNNのためのMask-based Adversarial Defense scheme (MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-21T12:55:27Z) - Is Neuron Coverage Needed to Make Person Detection More Robust? [3.395452700023097]
本研究では,混み合った場面における人物検出の課題に対して,CGT(Comported-Guided Testing)を適用した。
提案したパイプラインは、人検出にYOLOv3を使用し、サンプリングと突然変異によるバグの発見を含む。
調査対象の指標が強靭性向上に有効であることを示す証拠は見出されていない。
論文 参考訳(メタデータ) (2022-04-21T11:23:33Z) - Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels [8.9960048245668]
ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があるため、ロバスト性に悩まされる。
本稿では,ロバスト性検証を目標ラベルで導くことによって,ロバスト性検証手法を高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T00:51:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。