論文の概要: TED-LaST: Towards Robust Backdoor Defense Against Adaptive Attacks
- arxiv url: http://arxiv.org/abs/2506.10722v1
- Date: Thu, 12 Jun 2025 14:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.771287
- Title: TED-LaST: Towards Robust Backdoor Defense Against Adaptive Attacks
- Title(参考訳): TED-LaST:アダプティブアタックに対するロバストなバックドア防衛を目指す
- Authors: Xiaoxing Mo, Yuxuan Cheng, Nan Sun, Leo Yu Zhang, Wei Luo, Shang Gao,
- Abstract要約: 深部ニューラルネットワーク(DNN)におけるバックドア攻撃検出のための強力なツールとして、トポロジカル進化ダイナミクス(TED)が登場した。
TEDは、ネットワーク層間のトポロジ的表現分布を適応的に歪ませるバックドア攻撃に対して脆弱である。
本稿では,TEDのアダプティブアタックに対する堅牢性を高める新しい防衛戦略であるTED-LaSTを提案する。
- 参考スコア(独自算出の注目度): 9.664747681518465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are vulnerable to backdoor attacks, where attackers implant hidden triggers during training to maliciously control model behavior. Topological Evolution Dynamics (TED) has recently emerged as a powerful tool for detecting backdoor attacks in DNNs. However, TED can be vulnerable to backdoor attacks that adaptively distort topological representation distributions across network layers. To address this limitation, we propose TED-LaST (Topological Evolution Dynamics against Laundry, Slow release, and Target mapping attack strategies), a novel defense strategy that enhances TED's robustness against adaptive attacks. TED-LaST introduces two key innovations: label-supervised dynamics tracking and adaptive layer emphasis. These enhancements enable the identification of stealthy threats that evade traditional TED-based defenses, even in cases of inseparability in topological space and subtle topological perturbations. We review and classify data poisoning tricks in state-of-the-art adaptive attacks and propose enhanced adaptive attack with target mapping, which can dynamically shift malicious tasks and fully leverage the stealthiness that adaptive attacks possess. Our comprehensive experiments on multiple datasets (CIFAR-10, GTSRB, and ImageNet100) and model architectures (ResNet20, ResNet101) show that TED-LaST effectively counteracts sophisticated backdoors like Adap-Blend, Adapt-Patch, and the proposed enhanced adaptive attack. TED-LaST sets a new benchmark for robust backdoor detection, substantially enhancing DNN security against evolving threats.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、トレーニング中に隠れたトリガーを埋め込み、モデル動作を悪意ある制御を行うバックドア攻撃に対して脆弱である。
トポロジカル進化ダイナミクス(TED)は、最近DNNのバックドア攻撃を検出する強力なツールとして登場した。
しかし、TEDはネットワーク層間のトポロジ的表現分布を適応的に歪ませるバックドア攻撃に対して脆弱である。
この制限に対処するため,TED-LaST(Topological Evolution Dynamics against Laundry, Slow Release, Target Mapping attack Strategy)を提案する。
TED-LaSTでは、ラベル管理されたダイナミックストラッキングとアダプティブ層強調という、2つの重要なイノベーションが導入されている。
これらの強化により、トポロジカル空間の分離不能や微妙なトポロジカル摂動の場合であっても、従来のTEDベースの防御を回避できるステルスの脅威が特定できる。
我々は,現在最先端の適応攻撃におけるデータ中毒対策の検証と分類を行い,悪意のあるタスクを動的にシフトし,適応攻撃が持つステルス性を完全に活用できるターゲットマッピングによる適応攻撃を提案する。
複数のデータセット(CIFAR-10、GTSRB、ImageNet100)とモデルアーキテクチャ(ResNet20、ResNet101)に関する包括的な実験により、TED-LaSTは、Adap-Blend、Adapt-Patch、提案された拡張適応攻撃のような洗練されたバックドアを効果的に対処することを示した。
TED-LaSTは、堅牢なバックドア検出のための新しいベンチマークを設定し、進化する脅威に対するDNNセキュリティを大幅に強化した。
関連論文リスト
- TrojanTO: Action-Level Backdoor Attacks against Trajectory Optimization Models [67.06525001375722]
TrojanTOはTOモデルに対する最初のアクションレベルのバックドア攻撃である。
様々なタスクにバックドア攻撃を移植し、低い攻撃予算で目標を攻撃する。
TrojanTOはDT、GDT、DCに広く適用可能である。
論文 参考訳(メタデータ) (2025-06-15T11:27:49Z) - Co-Evolutionary Defence of Active Directory Attack Graphs via GNN-Approximated Dynamic Programming [3.8352746394815815]
我々は,Active Directoryにおける攻撃と防御の相互作用を,アダプティブアタックとプロアクティブディフェンダーの間のStackelbergゲームとしてモデル化する。
本稿では,GNNDP(Graph Neural Network Approximated Dynamic Programming)を併用して攻撃戦略をモデル化する,共進化型防衛フレームワークを提案する。
本フレームワークは,攻撃者や防御者の政策を洗練し,一般化を改善し,早期収束を防ぐ。
論文 参考訳(メタデータ) (2025-05-16T21:37:50Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Tabdoor: Backdoor Vulnerabilities in Transformer-based Neural Networks for Tabular Data [14.415796842972563]
本稿では,Deep Neural Networks (DNN) を用いた表型データに対するバックドア攻撃の包括的解析について述べる。
本稿では,ステルス性を維持しつつ攻撃性能に優れるインバウンド攻撃(in-bounds attack)を提案する。
以上の結果から,100%の攻撃成功率を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-13T18:39:44Z) - Spear and Shield: Adversarial Attacks and Defense Methods for
Model-Based Link Prediction on Continuous-Time Dynamic Graphs [40.01361505644007]
本稿では,連続時間動的グラフ上でのリンク予測のための,単純かつ効果的な逆攻撃手法T-SPEARを提案する。
本稿では,T-SPEARがリンク予測タスクにおいて,被害者モデルの性能を著しく低下させることを示す。
我々の攻撃は他のTGNNに転送可能であり、攻撃者が想定する被害者モデルとは異なる。
論文 参考訳(メタデータ) (2023-08-21T15:09:51Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - RIBAC: Towards Robust and Imperceptible Backdoor Attack against Compact
DNN [28.94653593443991]
近年のバックドア攻撃は、ディープニューラルネットワーク(DNN)モデルのセキュリティに対する新たな脅威となっている。
本稿では,コンパクトDNNモデル(RIBAC)に対するロバストおよび非受容性バックドアアタックの研究と開発について述べる。
論文 参考訳(メタデータ) (2022-08-22T21:27:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。