論文の概要: Kill Two Birds with One Stone! Trajectory enabled Unified Online Detection of Adversarial Examples and Backdoor Attacks
- arxiv url: http://arxiv.org/abs/2506.22722v1
- Date: Sat, 28 Jun 2025 02:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.533153
- Title: Kill Two Birds with One Stone! Trajectory enabled Unified Online Detection of Adversarial Examples and Backdoor Attacks
- Title(参考訳): 1つの石で2羽の鳥を殺す! トラジェクトリは、敵の事例と後方攻撃の統一オンライン検出を可能にした
- Authors: Anmin Fu, Fanyu Meng, Huaibing Peng, Hua Ma, Zhi Zhang, Yifeng Zheng, Willy Susilo, Yansong Gao,
- Abstract要約: 提案されたUniGuardは、敵の例とバックドア攻撃に同時に対処できる、最初の統合されたオンライン検出フレームワークである。
第一に、AEとバックドア攻撃の両方が推論フェーズを妥協し、オンライン検出を通じて実行中に同時に対処できるようにする必要がある。
- 参考スコア(独自算出の注目度): 25.725726346383322
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proposed UniGuard is the first unified online detection framework capable of simultaneously addressing adversarial examples and backdoor attacks. UniGuard builds upon two key insights: first, both AE and backdoor attacks have to compromise the inference phase, making it possible to tackle them simultaneously during run-time via online detection. Second, an adversarial input, whether a perturbed sample in AE attacks or a trigger-carrying sample in backdoor attacks, exhibits distinctive trajectory signatures from a benign sample as it propagates through the layers of a DL model in forward inference. The propagation trajectory of the adversarial sample must deviate from that of its benign counterpart; otherwise, the adversarial objective cannot be fulfilled. Detecting these trajectory signatures is inherently challenging due to their subtlety; UniGuard overcomes this by treating the propagation trajectory as a time-series signal, leveraging LSTM and spectrum transformation to amplify differences between adversarial and benign trajectories that are subtle in the time domain. UniGuard exceptional efficiency and effectiveness have been extensively validated across various modalities (image, text, and audio) and tasks (classification and regression), ranging from diverse model architectures against a wide range of AE attacks and backdoor attacks, including challenging partial backdoors and dynamic triggers. When compared to SOTA methods, including ContraNet (NDSS 22) specific for AE detection and TED (IEEE SP 24) specific for backdoor detection, UniGuard consistently demonstrates superior performance, even when matched against each method's strengths in addressing their respective threats-each SOTA fails to parts of attack strategies while UniGuard succeeds for all.
- Abstract(参考訳): 提案されたUniGuardは、敵の例とバックドア攻撃に同時に対処できる、最初の統合されたオンライン検出フレームワークである。
第一に、AEとバックドア攻撃の両方が推論フェーズを妥協し、オンライン検出を通じて実行中に同時に対処できるようにする必要がある。
第2に、AEの摂動サンプルか、バックドアアタックのトリガーキャリングサンプルかにかかわらず、逆入力は、前向き推論においてDLモデルの層を介して伝播する良性サンプルから特異的な軌道シグネチャを示す。
対向サンプルの伝播軌跡は、その対向する良性から逸脱しなければならない;そうでなければ、対向目的を達成することはできない。
UniGuardは、伝播軌跡を時系列信号として扱い、LSTMとスペクトル変換を利用して、時間領域において微妙な対向軌道と良性軌道の差を増幅することでこれを克服している。
UniGuardの例外的な効率性と有効性は、様々なモダリティ(画像、テキスト、オーディオ)とタスク(分類と回帰)で広く検証され、多様なモデルアーキテクチャから、挑戦的な部分的なバックドアや動的トリガーを含む幅広いAE攻撃やバックドア攻撃まで幅広い。
AE検出に特有のContraNet(NDSS 22)やバックドア検出に特有のTED(IEEE SP 24)など、SOTAメソッドと比較すると、UniGuardは、それぞれの脅威に対処するそれぞれのメソッドの強みにマッチしても、攻撃戦略の一部に失敗するが、UniGuardは成功している。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Temporal-Distributed Backdoor Attack Against Video Based Action
Recognition [21.916002204426853]
ビデオデータに対する、シンプルで効果的なバックドア攻撃を導入する。
我々の提案した攻撃は、変換されたドメインに摂動を加えることで、ビデオフレームに知覚不能で時間的に分散されたトリガーを配置する。
論文 参考訳(メタデータ) (2023-08-21T22:31:54Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。