論文の概要: TED++: Submanifold-Aware Backdoor Detection via Layerwise Tubular-Neighbourhood Screening
- arxiv url: http://arxiv.org/abs/2510.14299v1
- Date: Thu, 16 Oct 2025 04:51:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.723773
- Title: TED++: Submanifold-Aware Backdoor Detection via Layerwise Tubular-Neighbourhood Screening
- Title(参考訳): TED++:Layerwise Tubular-Neighbourhood Screeningによるサブマニフォールド対応バックドア検出
- Authors: Nam Le, Leo Yu Zhang, Kewen Liao, Shirui Pan, Wei Luo,
- Abstract要約: TED++は、微妙なバックドアを効果的に検出するサブマニフォールド対応フレームワークである。
進化するクラスのサブ多様体上で、許容可能な入力がいかに忠実に残っているかをキャプチャする。
ほぼ完全な検出を実現し、AUROCの14%のゲインを次のベストメソッドで達成する。
- 参考スコア(独自算出の注目度): 62.75464575596457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As deep neural networks power increasingly critical applications, stealthy backdoor attacks, where poisoned training inputs trigger malicious model behaviour while appearing benign, pose a severe security risk. Many existing defences are vulnerable when attackers exploit subtle distance-based anomalies or when clean examples are scarce. To meet this challenge, we introduce TED++, a submanifold-aware framework that effectively detects subtle backdoors that evade existing defences. TED++ begins by constructing a tubular neighbourhood around each class's hidden-feature manifold, estimating its local ``thickness'' from a handful of clean activations. It then applies Locally Adaptive Ranking (LAR) to detect any activation that drifts outside the admissible tube. By aggregating these LAR-adjusted ranks across all layers, TED++ captures how faithfully an input remains on the evolving class submanifolds. Based on such characteristic ``tube-constrained'' behaviour, TED++ flags inputs whose LAR-based ranking sequences deviate significantly. Extensive experiments are conducted on benchmark datasets and tasks, demonstrating that TED++ achieves state-of-the-art detection performance under both adaptive-attack and limited-data scenarios. Remarkably, even with only five held-out examples per class, TED++ still delivers near-perfect detection, achieving gains of up to 14\% in AUROC over the next-best method. The code is publicly available at https://github.com/namle-w/TEDpp.
- Abstract(参考訳): 深層ニューラルネットワークがますます重要なアプリケーションを動かしている中、有害なトレーニング入力が悪意あるモデル行動を引き起こすステルスなバックドア攻撃は、深刻なセキュリティリスクを引き起こす。
攻撃者が微妙な距離ベースの異常を利用する場合や、クリーンな例が少ない場合、多くの既存の防御が脆弱である。
この課題に対処するため、TED++は、既存の防御を回避する微妙なバックドアを効果的に検出するサブマニフォールド対応フレームワークである。
TED++はまず、各クラスの隠れ機能多様体の周りに管状近傍を構築し、いくつかのクリーンなアクティベーションからローカルの ‘'thickness'' を推定することから始まる。
次に、Locally Adaptive Ranking (LAR) を適用して、許容管の外を漂うアクティベーションを検出する。
LAR調整されたこれらのランクをすべての層に集約することにより、TED++は、進化するクラスサブ多様体の入力がいかに忠実に残っているかをキャプチャする。
このような特徴的な ``tube-Constrained'' の振る舞いに基づいて、TED++ は LAR ベースのランキングシーケンスが著しくずれている入力を出力する。
TED++がアダプティブ・アタックとリミテッド・データの両方のシナリオで最先端の検出性能を達成することを示すため、ベンチマークデータセットとタスクで大規模な実験が行われた。
注目すべきなのは、クラス毎に5つしか持たない例であっても、TED++は依然としてほぼ完璧に検出され、AUROCの次のベストメソッドよりも最大14\%向上していることだ。
コードはhttps://github.com/namle-w/TEDpp.comで公開されている。
関連論文リスト
- TED-LaST: Towards Robust Backdoor Defense Against Adaptive Attacks [9.664747681518465]
深部ニューラルネットワーク(DNN)におけるバックドア攻撃検出のための強力なツールとして、トポロジカル進化ダイナミクス(TED)が登場した。
TEDは、ネットワーク層間のトポロジ的表現分布を適応的に歪ませるバックドア攻撃に対して脆弱である。
本稿では,TEDのアダプティブアタックに対する堅牢性を高める新しい防衛戦略であるTED-LaSTを提案する。
論文 参考訳(メタデータ) (2025-06-12T14:12:15Z) - Robust Backdoor Detection for Deep Learning via Topological Evolution Dynamics [18.28911572993562]
ディープラーニングにおけるバックドア攻撃は、特定の入力パターンに対して悪意ある振る舞いを引き起こすために、モデルに隠れたバックドアを挿入する。
本稿では,新しいSSDT (Source-Specific and Dynamic-Triggers) バックドアを導入することで,この仮定に厳しい制約があることを述べる。
本研究では,ロバストなバックドア検出のためのモデルに依存しない基盤としてTED(トポロジカル・エボリューション・ダイナミクス)を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:29:12Z) - Improved Activation Clipping for Universal Backdoor Mitigation and
Test-Time Detection [27.62279831135902]
ディープニューラルネットワークは、攻撃者がバックドアトリガーでトレーニングセットに毒を盛るトロイア攻撃に対して脆弱である。
近年の研究では、バックドア中毒は攻撃されたモデルにおいて過剰な適合(通常、大きな活性化)を引き起こすことが示されている。
我々は、分類マージンを明示的に制限するためにアクティベーション境界を選択する新しいアプローチを考案する。
論文 参考訳(メタデータ) (2023-08-08T22:47:39Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。