論文の概要: The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2512.10402v2
- Date: Wed, 17 Dec 2025 05:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 15:03:26.913838
- Title: The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks
- Title(参考訳): シャドウの創世:ロバストなバックドア攻撃のための特徴境界の曖昧さを爆発させる
- Authors: Zhou Feng, Jiahao Chen, Chunyi Zhou, Yuwen Pu, Tianyu Du, Jinbao Li, Jianhai Chen, Shouling Ji,
- Abstract要約: 深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
- 参考スコア(独自算出の注目度): 51.468144272905135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) underpin critical applications yet remain vulnerable to backdoor attacks, typically reliant on heuristic brute-force methods. Despite significant empirical advancements in backdoor research, the lack of rigorous theoretical analysis limits understanding of underlying mechanisms, constraining attack predictability and adaptability. Therefore, we provide a theoretical analysis targeting backdoor attacks, focusing on how sparse decision boundaries enable disproportionate model manipulation. Based on this finding, we derive a closed-form, ambiguous boundary region, wherein negligible relabeled samples induce substantial misclassification. Influence function analysis further quantifies significant parameter shifts caused by these margin samples, with minimal impact on clean accuracy, formally grounding why such low poison rates suffice for efficacious attacks. Leveraging these insights, we propose Eminence, an explainable and robust black-box backdoor framework with provable theoretical guarantees and inherent stealth properties. Eminence optimizes a universal, visually subtle trigger that strategically exploits vulnerable decision boundaries and effectively achieves robust misclassification with exceptionally low poison rates (< 0.1%, compared to SOTA methods typically requiring > 1%). Comprehensive experiments validate our theoretical discussions and demonstrate the effectiveness of Eminence, confirming an exponential relationship between margin poisoning and adversarial boundary manipulation. Eminence maintains > 90% attack success rate, exhibits negligible clean-accuracy loss, and demonstrates high transferability across diverse models, datasets and scenarios.
- Abstract(参考訳): ディープ・ニューラル・ネットワーク(DNN)は、バックドア・アタック(通常はヒューリスティック・ブルートフォース・メソッドに依存する)に依然として脆弱な重要な応用の基盤となっている。
バックドア研究における経験的進歩にもかかわらず、厳密な理論的分析の欠如は、基盤となるメカニズムの理解、攻撃予測可能性の制限、適応可能性の制限を制限している。
そこで本研究では,バックドア攻撃を対象とする理論的解析を行い,不均質なモデル操作を実現する方法に着目した。
この発見に基づいて、我々は、無視可能な可溶性サンプルが実質的な誤分類を引き起こすような、閉じた形、曖昧な境界領域を導出する。
影響関数分析は、これらのマージンサンプルによって引き起こされる重要なパラメータシフトをさらに定量化し、クリーンな精度に最小限の影響を与える。
これらの知見を生かして、証明可能な理論的保証と本質的なステルス特性を備えた説明可能で堅牢なブラックボックスバックドアフレームワークであるEminenceを提案する。
創発は、脆弱な決定境界を戦略的に悪用する普遍的で視覚的に微妙なトリガーを最適化し、例外的に低い毒性率で堅牢な誤分類を効果的に達成する(0.1%)。
総合的な実験により,エミネンスの有効性を検証し,マージン中毒と対向境界操作の指数的関係を検証した。
Eminenceは、90%のアタック成功率を維持し、無視可能なクリーン精度の損失を示し、さまざまなモデル、データセット、シナリオ間で高い転送可能性を示す。
関連論文リスト
- BadCLIP++: Stealthy and Persistent Backdoors in Multimodal Contrastive Learning [73.46118996284888]
マルチモーダル・コントラスト学習モデルに対するバックドア攻撃の研究は、ステルスネスと永続性という2つの大きな課題に直面している。
両課題に対処する統合フレームワークであるBadCLIP++を提案する。
ステルスネスのために,タスク関連領域付近に知覚不可能なパターンを埋め込むセマンティックフュージョンQRマイクロトリガーを導入する。
持続性については、半径縮小とセントロイドアライメントによるトリガ埋め込みを安定化する。
論文 参考訳(メタデータ) (2026-02-19T08:31:16Z) - Transcendental Regularization of Finite Mixtures:Theoretical Guarantees and Practical Limitations [0.0]
本稿では,効率を保ちながら退化を防止できる分析バリア機能を備えた,超越正則化(transcendental regularization)を提案する。
我々の研究は、オープンソースのRパッケージで実装された、新しい理論フレームワークと実用的な制限の正直な評価の両方を提供する。
論文 参考訳(メタデータ) (2026-02-03T05:12:14Z) - Safety-Efficacy Trade Off: Robustness against Data-Poisoning [2.273510537992342]
バックドアとデータ中毒攻撃は、既存のスペクトルと最適化ベースの防御を回避しながら、高い攻撃成功を達成することができる。
この挙動は偶発的ではなく、入力空間における基本的な幾何学的メカニズムから生じることを示す。
本研究は,バックドアが本質的に見えない状態にあることを証明し,入力空間曲率による毒性,検出性,防御の第一端の特徴付けを行う。
論文 参考訳(メタデータ) (2026-01-31T17:22:00Z) - CS-GBA: A Critical Sample-based Gradient-guided Backdoor Attack for Offline Reinforcement Learning [7.5200963577855875]
オフライン強化学習(RL)は、静的データセットからのポリシー最適化を可能にするが、バックドア攻撃に対して本質的に脆弱である。
我々は,厳格な予算の下で高い盗難と破壊性を達成すべく,CS-GBA(Critical Sample-based Gradient-Guided Backdoor Attack)を提案する。
論文 参考訳(メタデータ) (2026-01-15T13:57:52Z) - Quantifying the Risk of Transferred Black Box Attacks [0.0]
ニューラルネットワークは、セキュリティ関連製品など、さまざまなアプリケーションに広く普及している。
本稿では,移動攻撃に対するレジリエンステストの複雑さについて検討する。
本稿では,CKA(Centered Kernel Alignment)の類似性に基づいて戦略的に選択された代理モデルを用いたレジリエンステストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-07T09:34:43Z) - BadGD: A unified data-centric framework to identify gradient descent vulnerabilities [10.996626204702189]
BadGDは、敵の操作を理解し緩和するための新しい標準を設定している。
この研究は、このようなデータ中心の攻撃によって引き起こされる深刻な脅威を強調し、機械学習における堅牢な防御の必要性を強調している。
論文 参考訳(メタデータ) (2024-05-24T23:39:45Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [39.07360350023601]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Towards Understanding the Robustness of Diffusion-Based Purification: A Stochastic Perspective [65.10019978876863]
拡散性浄化(DBP)は、敵の攻撃に対する効果的な防御機構として出現している。
本稿では,DBPプロセスの本質性がロバスト性を駆動する主要な要因であることを示す。
論文 参考訳(メタデータ) (2024-04-22T16:10:38Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Theoretically Principled Trade-off for Stateful Defenses against
Query-Based Black-Box Attacks [26.905553663353825]
我々は,ステートフルディフェンスに対する検出と偽陽性率のトレードオフを理論的に評価する。
このトレードオフがブラックボックス攻撃の収束に与える影響を分析する。
論文 参考訳(メタデータ) (2023-07-30T22:31:01Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption [40.76024057426747]
本稿では,ニューラルネットワークパラメータのロバスト性を評価する指標を提案する。
現実的な目的のために、ランダムな汚職裁判よりもはるかに効果的である勾配に基づく評価を与える。
論文 参考訳(メタデータ) (2020-06-10T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。