論文の概要: The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2512.10402v2
- Date: Wed, 17 Dec 2025 05:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 15:03:26.913838
- Title: The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks
- Title(参考訳): シャドウの創世:ロバストなバックドア攻撃のための特徴境界の曖昧さを爆発させる
- Authors: Zhou Feng, Jiahao Chen, Chunyi Zhou, Yuwen Pu, Tianyu Du, Jinbao Li, Jianhai Chen, Shouling Ji,
- Abstract要約: 深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
- 参考スコア(独自算出の注目度): 51.468144272905135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) underpin critical applications yet remain vulnerable to backdoor attacks, typically reliant on heuristic brute-force methods. Despite significant empirical advancements in backdoor research, the lack of rigorous theoretical analysis limits understanding of underlying mechanisms, constraining attack predictability and adaptability. Therefore, we provide a theoretical analysis targeting backdoor attacks, focusing on how sparse decision boundaries enable disproportionate model manipulation. Based on this finding, we derive a closed-form, ambiguous boundary region, wherein negligible relabeled samples induce substantial misclassification. Influence function analysis further quantifies significant parameter shifts caused by these margin samples, with minimal impact on clean accuracy, formally grounding why such low poison rates suffice for efficacious attacks. Leveraging these insights, we propose Eminence, an explainable and robust black-box backdoor framework with provable theoretical guarantees and inherent stealth properties. Eminence optimizes a universal, visually subtle trigger that strategically exploits vulnerable decision boundaries and effectively achieves robust misclassification with exceptionally low poison rates (< 0.1%, compared to SOTA methods typically requiring > 1%). Comprehensive experiments validate our theoretical discussions and demonstrate the effectiveness of Eminence, confirming an exponential relationship between margin poisoning and adversarial boundary manipulation. Eminence maintains > 90% attack success rate, exhibits negligible clean-accuracy loss, and demonstrates high transferability across diverse models, datasets and scenarios.
- Abstract(参考訳): ディープ・ニューラル・ネットワーク(DNN)は、バックドア・アタック(通常はヒューリスティック・ブルートフォース・メソッドに依存する)に依然として脆弱な重要な応用の基盤となっている。
バックドア研究における経験的進歩にもかかわらず、厳密な理論的分析の欠如は、基盤となるメカニズムの理解、攻撃予測可能性の制限、適応可能性の制限を制限している。
そこで本研究では,バックドア攻撃を対象とする理論的解析を行い,不均質なモデル操作を実現する方法に着目した。
この発見に基づいて、我々は、無視可能な可溶性サンプルが実質的な誤分類を引き起こすような、閉じた形、曖昧な境界領域を導出する。
影響関数分析は、これらのマージンサンプルによって引き起こされる重要なパラメータシフトをさらに定量化し、クリーンな精度に最小限の影響を与える。
これらの知見を生かして、証明可能な理論的保証と本質的なステルス特性を備えた説明可能で堅牢なブラックボックスバックドアフレームワークであるEminenceを提案する。
創発は、脆弱な決定境界を戦略的に悪用する普遍的で視覚的に微妙なトリガーを最適化し、例外的に低い毒性率で堅牢な誤分類を効果的に達成する(0.1%)。
総合的な実験により,エミネンスの有効性を検証し,マージン中毒と対向境界操作の指数的関係を検証した。
Eminenceは、90%のアタック成功率を維持し、無視可能なクリーン精度の損失を示し、さまざまなモデル、データセット、シナリオ間で高い転送可能性を示す。
関連論文リスト
- Quantifying the Risk of Transferred Black Box Attacks [0.0]
ニューラルネットワークは、セキュリティ関連製品など、さまざまなアプリケーションに広く普及している。
本稿では,移動攻撃に対するレジリエンステストの複雑さについて検討する。
本稿では,CKA(Centered Kernel Alignment)の類似性に基づいて戦略的に選択された代理モデルを用いたレジリエンステストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-07T09:34:43Z) - BadGD: A unified data-centric framework to identify gradient descent vulnerabilities [10.996626204702189]
BadGDは、敵の操作を理解し緩和するための新しい標準を設定している。
この研究は、このようなデータ中心の攻撃によって引き起こされる深刻な脅威を強調し、機械学習における堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-05-24T23:39:45Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [39.07360350023601]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Theoretically Principled Trade-off for Stateful Defenses against
Query-Based Black-Box Attacks [26.905553663353825]
我々は,ステートフルディフェンスに対する検出と偽陽性率のトレードオフを理論的に評価する。
このトレードオフがブラックボックス攻撃の収束に与える影響を分析する。
論文 参考訳(メタデータ) (2023-07-30T22:31:01Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption [40.76024057426747]
本稿では,ニューラルネットワークパラメータのロバスト性を評価する指標を提案する。
現実的な目的のために、ランダムな汚職裁判よりもはるかに効果的である勾配に基づく評価を与える。
論文 参考訳(メタデータ) (2020-06-10T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。