論文の概要: IU: Imperceptible Universal Backdoor Attack
- arxiv url: http://arxiv.org/abs/2603.00711v1
- Date: Sat, 28 Feb 2026 15:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.334263
- Title: IU: Imperceptible Universal Backdoor Attack
- Title(参考訳): IU: 万能バックドア攻撃は受け入れ難い
- Authors: Hsin Lin, Yan-Lun Chen, Ren-Hung Hwang, Chia-Mu Yu,
- Abstract要約: 盗難を防ぎながら、最小限の毒で全ての標的クラスを同時に制御する新規な受容不能なユニバーサルバックドアアタックを導入する。
私たちのキーとなる考え方は、グラフ畳み込みネットワーク(GCN)を利用して、クラス間の関係をモデル化し、効果的かつ視覚的に見えないクラス固有の摂動を生成することです。
- 参考スコア(独自算出の注目度): 10.117347558468166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks pose a critical threat to the security of deep neural networks, yet existing efforts on universal backdoors often rely on visually salient patterns, making them easier to detect and less practical at scale. In this work, we introduce a novel imperceptible universal backdoor attack that simultaneously controls all target classes with minimal poisoning while preserving stealth. Our key idea is to leverage graph convolutional networks (GCNs) to model inter-class relationships and generate class-specific perturbations that are both effective and visually invisible. The proposed framework optimizes a dual-objective loss that balances stealthiness (measured by perceptual similarity metrics such as PSNR) and attack success rate (ASR), enabling scalable, multi-target backdoor injection. Extensive experiments on ImageNet-1K with ResNet architectures demonstrate that our method achieves high ASR (up to 91.3%) under poisoning rates as low as 0.16%, while maintaining benign accuracy and evading state-of-the-art defenses. These results highlight the emerging risks of invisible universal backdoors and call for more robust detection and mitigation strategies.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワークのセキュリティにとって重大な脅威となるが、既存のユニバーサルバックドアへの取り組みは視覚的に健全なパターンに依存しており、検出が容易で、大規模で実用的ではない。
本研究は, 盗難を防ぎながら, 最小限の毒で全ての標的クラスを同時に制御する, 新規な受容不能なユニバーサルバックドアアタックを提案する。
私たちのキーとなる考え方は、グラフ畳み込みネットワーク(GCN)を利用して、クラス間の関係をモデル化し、効果的かつ視覚的に見えないクラス固有の摂動を生成することです。
提案フレームワークは,PSNRなどの知覚的類似度指標とアタック成功率(ASR)のバランスをとる二重目的損失を最適化し,スケーラブルでマルチターゲットなバックドアインジェクションを実現する。
ResNet アーキテクチャを用いた ImageNet-1K の大規模実験により,本手法は毒性率 0.16% で高い ASR (91.3%) を達成するとともに,良質な精度を維持し,最先端の防御を回避できることを示した。
これらの結果は、目に見えない普遍的なバックドアの出現リスクを強調し、より堅牢な検出と緩和戦略を要求している。
関連論文リスト
- Injection, Attack and Erasure: Revocable Backdoor Attacks via Machine Unlearning [2.1896295740048894]
本稿では,攻撃目標達成後,バックドアを積極的にかつ徹底的に取り除くことができる,取り消し可能なバックドア攻撃の第1パラダイムを紹介する。
この研究は、バックドア攻撃研究の新しい方向性を開き、機械学習システムのセキュリティに対する新たな課題を提示します。
論文 参考訳(メタデータ) (2025-10-15T09:09:43Z) - MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Neural Antidote: Class-Wise Prompt Tuning for Purifying Backdoors in CLIP [51.04452017089568]
CBPT(Class-wise Backdoor Prompt Tuning)は、テキストプロンプトでCLIPを間接的に浄化する効率的な防御機構である。
CBPTは、モデルユーティリティを保持しながら、バックドアの脅威を著しく軽減する。
論文 参考訳(メタデータ) (2025-02-26T16:25:15Z) - Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [11.671718919130099]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Revisiting Backdoor Attacks against Large Vision-Language Models from Domain Shift [104.76588209308666]
本稿では,LVLMの学習訓練におけるバックドア攻撃について検討する。
我々は,攻撃の堅牢性を評価するために,新たな評価次元,バックドア領域の一般化を導入する。
本稿では,ドメイン非依存的トリガを臨界領域に注入するマルチモーダルアトリビューションバックドアアタック(MABA)を提案する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - Unified Neural Backdoor Removal with Only Few Clean Samples through Unlearning and Relearning [4.623498459985644]
ULRL(UnLearn and ReLearn for backdoor removal)を提案する。
提案手法はまず,ネットワークの損失を小さなクリーンデータセット上で意図的に最大化する未学習フェーズを用いる。
再学習段階では、これらの疑わしいニューロンは、標的の再初期化とコサイン類似性規則化を用いて再分類される。
論文 参考訳(メタデータ) (2024-05-23T16:49:09Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。