論文の概要: HPE: Hallucinated Positive Entanglement for Backdoor Attacks in Federated Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2602.02147v1
- Date: Mon, 02 Feb 2026 14:24:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.204349
- Title: HPE: Hallucinated Positive Entanglement for Backdoor Attacks in Federated Self-Supervised Learning
- Title(参考訳): HPE:フェデレーション・セルフ・スーパーバイザード・ラーニングにおけるバックドアアタックの正の絡み合い
- Authors: Jiayao Wang, Yang Song, Zhendong Zhao, Jiale Zhang, Qilin Wu, Wenliang Yuan, Junwu Zhu, Dongfang Zhao,
- Abstract要約: フェデレートされた自己教師付き学習(FSSL)は、生のラベルなしデータを共有せずに、自己教師付き表現モデルの協調トレーニングを可能にする。
プライバシー保護学習の重要なパラダイムとして機能するが、セキュリティはバックドア攻撃に弱いままだ。
FSSLの新しいバックドア攻撃手法,すなわちHalucinated Positive Entanglement (HPE)を提案する。
- 参考スコア(独自算出の注目度): 11.615563669883072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated self-supervised learning (FSSL) enables collaborative training of self-supervised representation models without sharing raw unlabeled data. While it serves as a crucial paradigm for privacy-preserving learning, its security remains vulnerable to backdoor attacks, where malicious clients manipulate local training to inject targeted backdoors. Existing FSSL attack methods, however, often suffer from low utilization of poisoned samples, limited transferability, and weak persistence. To address these limitations, we propose a new backdoor attack method for FSSL, namely Hallucinated Positive Entanglement (HPE). HPE first employs hallucination-based augmentation using synthetic positive samples to enhance the encoder's embedding of backdoor features. It then introduces feature entanglement to enforce tight binding between triggers and backdoor samples in the representation space. Finally, selective parameter poisoning and proximity-aware updates constrain the poisoned model within the vicinity of the global model, enhancing its stability and persistence. Experimental results on several FSSL scenarios and datasets show that HPE significantly outperforms existing backdoor attack methods in performance and exhibits strong robustness under various defense mechanisms.
- Abstract(参考訳): フェデレートされた自己教師付き学習(FSSL)は、生のラベルなしデータを共有せずに、自己教師付き表現モデルの協調トレーニングを可能にする。
プライバシー保護学習の重要なパラダイムとして機能するが、セキュリティはバックドア攻撃に弱いままであり、悪意のあるクライアントがローカルトレーニングを操作してターゲットのバックドアを注入する。
しかし、既存のFSSL攻撃法は、しばしば毒性サンプルの低い利用、限られた転送可能性、弱い持続性に悩まされる。
これらの制約に対処するため、我々はFSSLの新しいバックドアアタック手法、すなわちHalucinated Positive Entanglement (HPE)を提案する。
HPEは、まず、エンコーダのバックドア特徴の埋め込みを強化するために、合成正のサンプルを使用して幻覚に基づく増強を利用する。
次に、表現空間内のトリガとバックドアサンプル間のタイトなバインディングを強制するために、フィーチャの絡み合いを導入する。
最後に、選択的パラメータ中毒と近接認識更新は、地球モデル近傍の毒性モデルに制約を与え、安定性と持続性を高める。
いくつかのFSSLシナリオとデータセットの実験結果から、HPEは既存のバックドアアタック手法よりも性能が優れ、様々な防御機構の下で強い堅牢性を示すことが示された。
関連論文リスト
- MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Lethe: Purifying Backdoored Large Language Models with Knowledge Dilution [49.78359632298156]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて優れたパフォーマンスを達成し、大幅な進歩を遂げている。
標準クエリではモデルが正常に動作しますが、特定のトリガがアクティブになると、有害な応答や意図しない出力を生成します。
本稿では,LLMからのバックドアの挙動を知識希釈により除去する新しい手法LETHEを提案する。
論文 参考訳(メタデータ) (2025-08-28T17:05:18Z) - IPBA: Imperceptible Perturbation Backdoor Attack in Federated Self-Supervised Learning [13.337697403537488]
フェデレート自己教師学習(FSSL)は、分散モデリングとラベルなし表現学習の利点を組み合わせたものである。
研究によると、FSSLはバックドア攻撃に弱いままである。
我々はIPBAと呼ばれるFSSLに対する非受容的で効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T14:36:11Z) - SPA: Towards More Stealth and Persistent Backdoor Attacks in Federated Learning [10.924427077035915]
フェデレートラーニング(FL)は、プライバシ保護のための分散機械学習の主要なパラダイムとして登場したが、FLの分散特性にはユニークなセキュリティ上の課題が伴っている。
特徴空間アライメントを活用することによって従来のアプローチから離れるSPAという,斬新でステルス的なバックドアアタックフレームワークを提案する。
本研究は,FLにおけるバックドア脅威の高度化に緊急注意を喚起し,高度な機能レベル防衛技術の必要性を強調した。
論文 参考訳(メタデータ) (2025-06-26T01:33:14Z) - ELBA-Bench: An Efficient Learning Backdoor Attacks Benchmark for Large Language Models [55.93380086403591]
生成可能な大規模言語モデルは、バックドアアタックに対して脆弱である。
$textitELBA-Bench$は、パラメータを効率的に微調整することで攻撃者がバックドアを注入できるようにする。
$textitELBA-Bench$は1300以上の実験を提供する。
論文 参考訳(メタデータ) (2025-02-22T12:55:28Z) - Mind the Cost of Scaffold! Benign Clients May Even Become Accomplices of Backdoor Attack [16.104941796138128]
BadSFLはScaffoldをターゲットにした最初のバックドア攻撃である。
攻撃者の毒殺方向へのクライアントの局所的な勾配更新を無視し、効果的に無知の共犯者へと変える。
BadSFLは攻撃耐久性に優れ、60回以上のグローバルラウンドで有効性を維持し、既存のベースラインの最大3倍の長寿命を維持できる。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Securing Federated Learning against Backdoor Threats with Foundation Model Integration [8.191214701984162]
フェデレートラーニング(FL)は、プライバシを保護しながら、分散モデルトレーニングを可能にする。
近年,ファンデーションモデル(FM)のFLへの統合により性能が向上したが,新たなバックドア攻撃機構が導入された。
FLにおけるバックドア攻撃とバックドア攻撃の両方に対処する新しいデータフリー防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T05:54:41Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。