論文の概要: Enhancing All-to-X Backdoor Attacks with Optimized Target Class Mapping
- arxiv url: http://arxiv.org/abs/2511.13356v1
- Date: Mon, 17 Nov 2025 13:22:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.229325
- Title: Enhancing All-to-X Backdoor Attacks with Optimized Target Class Mapping
- Title(参考訳): 最適目標クラスマッピングによる全対Xバックドアアタックの強化
- Authors: Lei Wang, Yulong Tian, Hao Han, Fengyuan Xu,
- Abstract要約: バックドア攻撃は、機械学習システムに深刻な脅威をもたらす。
既存の作業のほとんどは、複数のターゲットクラスを持つより複雑なAll-to-X(A2X)攻撃を見越して、シングルターゲットのAll-to-One(A2O)攻撃に焦点を当てている。
堅牢性を維持しつつ,A2X攻撃の成功率を高める新たな攻撃戦略を提案する。
- 参考スコア(独自算出の注目度): 11.703299790086241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks pose severe threats to machine learning systems, prompting extensive research in this area. However, most existing work focuses on single-target All-to-One (A2O) attacks, overlooking the more complex All-to-X (A2X) attacks with multiple target classes, which are often assumed to have low attack success rates. In this paper, we first demonstrate that A2X attacks are robust against state-of-the-art defenses. We then propose a novel attack strategy that enhances the success rate of A2X attacks while maintaining robustness by optimizing grouping and target class assignment mechanisms. Our method improves the attack success rate by up to 28%, with average improvements of 6.7%, 16.4%, 14.1% on CIFAR10, CIFAR100, and Tiny-ImageNet, respectively. We anticipate that this study will raise awareness of A2X attacks and stimulate further research in this under-explored area. Our code is available at https://github.com/kazefjj/A2X-backdoor .
- Abstract(参考訳): バックドア攻撃は、機械学習システムに深刻な脅威をもたらし、この分野の広範な研究を促している。
しかし、既存のほとんどの研究は単一ターゲットのオール・ツー・ワン(A2O)攻撃に焦点を当てており、複数のターゲットクラスを持つより複雑なオール・ツー・X(A2X)攻撃を見落としている。
本稿では,A2X攻撃が最先端の防御に対して堅牢であることを示す。
そこで我々は,A2X攻撃の成功率を高めつつ,グループ化とクラス割り当ての最適化によってロバスト性を維持しつつ,新たな攻撃戦略を提案する。
攻撃成功率は,CIFAR10,CIFAR100,Tiny-ImageNetで平均6.7%,16.4%,14.1%向上した。
本研究は、A2X攻撃に対する意識を高め、この未調査領域におけるさらなる研究を促進することを期待する。
私たちのコードはhttps://github.com/kazefjj/A2X-backdoor で利用可能です。
関連論文リスト
- The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against Llm Jailbreaks and Prompt Injections [74.60337113759313]
現在のジェイルブレイクとプロンプトインジェクションに対する防御は、通常、有害な攻撃文字列の静的セットに対して評価される。
我々は,この評価プロセスに欠陥があることを論じる。代わりに,攻撃戦略を明示的に修正したアダプティブアタッカーに対する防御を,防衛設計に対抗して評価すべきである。
論文 参考訳(メタデータ) (2025-10-10T05:51:04Z) - Active Attacks: Red-teaming LLMs via Adaptive Environments [71.55110023234376]
大規模言語モデル(LLM)に対する多様な攻撃プロンプトを生成するという課題に対処する。
我々は、犠牲者が進化するにつれて攻撃に適応する新しいRLベースのレッドチームアルゴリズムであるtextitActive Attacksを導入する。
論文 参考訳(メタデータ) (2025-09-26T06:27:00Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - Protecting against simultaneous data poisoning attacks [14.893813906644153]
現在のバックドア防御法は、一度に1回の攻撃に対して評価される。
同時に実行されたデータ中毒攻撃は、複数のバックドアを単一のモデルに効果的にインストールできることを示す。
我々は,マルチアタック・セッティングに有効である新しいディフェンス,BaDLossを開発した。
論文 参考訳(メタデータ) (2024-08-23T16:57:27Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Towards Out-of-Distribution Adversarial Robustness [18.019850207961465]
ドメイン一般化アプローチを採用することで、多くの一般的な攻撃に対して改善の余地があることが示される。
我々は、各攻撃をドメインとして扱い、全ての訓練攻撃に対して同様のロバスト性を促進するリスク外挿法(REx)を適用した。
既存の手法と比較して,訓練中に見られた攻撃に対して,同様の,あるいは優れた対逆的堅牢性が得られる。
論文 参考訳(メタデータ) (2022-10-06T18:23:10Z) - Mitigating Advanced Adversarial Attacks with More Advanced Gradient
Obfuscation Techniques [13.972753012322126]
Deep Neural Networks (DNN) は、Adversarial Examples (AEs) に弱いことがよく知られている。
近年,高度勾配に基づく攻撃手法が提案されている。
本稿では、これらの高度な勾配に基づく攻撃を緩和するための着実に一歩を踏み出す。
論文 参考訳(メタデータ) (2020-05-27T23:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。