論文の概要: DSBA: Dynamic Stealthy Backdoor Attack with Collaborative Optimization in Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2603.02849v1
- Date: Tue, 03 Mar 2026 10:49:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.756052
- Title: DSBA: Dynamic Stealthy Backdoor Attack with Collaborative Optimization in Self-Supervised Learning
- Title(参考訳): DSBA: 自己指導型学習における協調最適化による動的ステルスバックドアアタック
- Authors: Jiayao Wang, Mohammad Maruf Hasan, Yiping Zhang, Xiaoying Lei, Jiale Zhang, Qilin Wu, Junwu Zhu, Dongfang Zhao,
- Abstract要約: 自己監視学習(SSL)は、広範なラベル付きデータなしで学習できる能力のおかげで、表現学習において重要なパラダイムとして登場した。
最近の研究によると、SSLモデルはバックドア攻撃にも脆弱である。
我々は,協調最適化(Collaborative Optimization)と呼ばれる新しい手法により,DSBA(Dynamic Stealthy Backdoor Attack)を提案する。
- 参考スコア(独自算出の注目度): 10.286339414754496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised Learning (SSL) has emerged as a significant paradigm in representation learning thanks to its ability to learn without extensive labeled data, its strong generalization capabilities, and its potential for privacy preservation. However, recent research reveals that SSL models are also vulnerable to backdoor attacks. Existing backdoor attack methods in the SSL context commonly suffer from issues such as high detectability of triggers, feature entanglement, and pronounced out-of-distribution properties in poisoned samples, all of which compromises attack effectiveness and stealthiness. To that, we propose a Dynamic Stealthy Backdoor Attack (DSBA) backed by a new technique we term Collaborative Optimization. This method decouples the attack process into two collaborative optimization layers: the outer-layer optimization trains a backdoor encoder responsible for global feature space remodeling, aiming to achieve precise backdoor implantation while preserving core functionality; meanwhile, the inner-layer optimization employs a dynamically optimized generator to adaptively produce optimally concealed triggers for individual samples, achieving coordinated concealment across feature space and visual space. We also introduce multiple loss functions to dynamically balance attack performance and stealthiness, in which we employ an adaptive weight scheduling mechanism to enhance training stability. Extensive experiments on various mainstream SSL algorithms and five public datasets demonstrate that: (i) DSBA significantly enhances Attack Success Rate (ASR) and stealthiness while maintaining downstream task accuracy; and (ii) DSBA exhibits superior robustness against existing mainstream defense methods.
- Abstract(参考訳): 自己監視学習(SSL)は、広範なラベル付きデータなしで学習できること、その強力な一般化能力、およびプライバシー保護の可能性により、表現学習において重要なパラダイムとして登場した。
しかし、最近の研究によると、SSLモデルはバックドア攻撃にも脆弱である。
SSLの既存のバックドアアタック手法は、一般的に、トリガーの高検出性、特徴の絡み合い、有毒なサンプルにおける明らかなアウト・オブ・ディストリビューション特性といった問題に悩まされる。
そこで我々は,協調最適化(Collaborative Optimization)と呼ぶ新しい手法により,DSBA(Dynamic Stealthy Backdoor Attack)を提案する。
この方法は、攻撃プロセスを2つの協調最適化層に分解する: 外層最適化は、グローバルな特徴空間リモデリングに責任を負うバックドアエンコーダを訓練し、コア機能を保ちながら正確なバックドア注入を実現する。
また、攻撃性能とステルスネスの動的バランスをとるために複数の損失関数を導入し、トレーニング安定性を高めるために適応的な重みスケジューリング機構を採用した。
さまざまな主流SSLアルゴリズムと5つの公開データセットに関する大規模な実験は、次のように示している。
(i)DSBAは、下流タスクの精度を維持しつつ、攻撃成功率(ASR)とステルスネスを著しく向上させる。
(二)DSBAは、既存の主流防衛法に対して優れた堅牢性を示す。
関連論文リスト
- OmniVL-Guard: Towards Unified Vision-Language Forgery Detection and Grounding via Balanced RL [63.388513841293616]
既存の偽造検出手法は、現実世界の誤報に多いインターリーブされたテキスト、画像、ビデオを扱うのに失敗する。
このギャップを埋めるため,本論文では,オムニバス・ビジョン言語による偽造検出と接地のための統一フレームワークの開発を目標としている。
我々は、OmniVL-Guardという、オムニバス視覚言語による偽造検出と接地のためのバランスの取れた強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-11T09:41:36Z) - ADCA: Attention-Driven Multi-Party Collusion Attack in Federated Self-Supervised Learning [9.410118086518992]
Federated Self-Supervised Learning (FSSL)は、分散トレーニングのプライバシー上のアドバンテージと、自己教師型学習の能力を統合する。
最近の研究では、FSSLはバックドア攻撃にも弱いことが示されている。
注意駆動型多人数衝突攻撃(ADCA)を提案する。
論文 参考訳(メタデータ) (2026-02-05T12:49:36Z) - HPE: Hallucinated Positive Entanglement for Backdoor Attacks in Federated Self-Supervised Learning [11.615563669883072]
フェデレートされた自己教師付き学習(FSSL)は、生のラベルなしデータを共有せずに、自己教師付き表現モデルの協調トレーニングを可能にする。
プライバシー保護学習の重要なパラダイムとして機能するが、セキュリティはバックドア攻撃に弱いままだ。
FSSLの新しいバックドア攻撃手法,すなわちHalucinated Positive Entanglement (HPE)を提案する。
論文 参考訳(メタデータ) (2026-02-02T14:24:06Z) - Adversarial Attack-Defense Co-Evolution for LLM Safety Alignment via Tree-Group Dual-Aware Search and Optimization [51.12422886183246]
大規模言語モデル(LLM)は、Webサービスにおいて急速に発展し、社会的リスクを増幅しつつ、前例のない能力を提供してきた。
既存の作業は、分離されたジェイルブレイク攻撃または静的防御に重点を置いており、現実世界のWebコンテキストにおける進化する脅威とセーフガードの間の動的な相互作用を無視している。
ACE-Safetyは、2つの重要な革新的手順をシームレスに統合することにより、攻撃と防御モデルを協調的に最適化する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-11-24T15:23:41Z) - DOPA: Stealthy and Generalizable Backdoor Attacks from a Single Client under Challenging Federated Constraints [2.139012072214621]
フェデレーテッド・ラーニング(FL)は、プライバシー保護のための協調トレーニングにますます採用されているが、その分散した性質は、バックドア攻撃の影響を受けやすい。
しかし、既存の攻撃方法は、しばしば理想化された仮定に依存し、現実の制約の下で有効に保たない。
異種ローカルトレーニングのダイナミクスをシミュレートし,多種多様な最適化トラジェクトリ間のコンセンサスを求める新しいフレームワークであるDOPAを提案する。
論文 参考訳(メタデータ) (2025-08-20T08:39:12Z) - IPBA: Imperceptible Perturbation Backdoor Attack in Federated Self-Supervised Learning [13.337697403537488]
フェデレート自己教師学習(FSSL)は、分散モデリングとラベルなし表現学習の利点を組み合わせたものである。
研究によると、FSSLはバックドア攻撃に弱いままである。
我々はIPBAと呼ばれるFSSLに対する非受容的で効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T14:36:11Z) - SPA: Towards More Stealth and Persistent Backdoor Attacks in Federated Learning [10.924427077035915]
フェデレートラーニング(FL)は、プライバシ保護のための分散機械学習の主要なパラダイムとして登場したが、FLの分散特性にはユニークなセキュリティ上の課題が伴っている。
特徴空間アライメントを活用することによって従来のアプローチから離れるSPAという,斬新でステルス的なバックドアアタックフレームワークを提案する。
本研究は,FLにおけるバックドア脅威の高度化に緊急注意を喚起し,高度な機能レベル防衛技術の必要性を強調した。
論文 参考訳(メタデータ) (2025-06-26T01:33:14Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。