論文の概要: SecureSplit: Mitigating Backdoor Attacks in Split Learning
- arxiv url: http://arxiv.org/abs/2601.14054v2
- Date: Sat, 24 Jan 2026 03:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 13:23:48.793083
- Title: SecureSplit: Mitigating Backdoor Attacks in Split Learning
- Title(参考訳): SecureSplit: スプリット学習におけるバックドア攻撃の軽減
- Authors: Zhihao Dou, Dongfei Cui, Weida Wang, Anjun Gao, Yueyang Quan, Mengyao Ma, Viet Vo, Guangdong Bai, Zhuqing Liu, Minghong Fang,
- Abstract要約: Split Learning (SL)は、データのプライバシを尊重する協調モデルトレーニングのためのフレームワークを提供する。
SLは、悪意のあるクライアントが埋め込みを微調整して隠れたトリガーを挿入するバックドア攻撃の影響を受けやすい。
SLに合わせた防御機構であるSecureSplitを紹介する。
- 参考スコア(独自算出の注目度): 21.292323694691568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Learning (SL) offers a framework for collaborative model training that respects data privacy by allowing participants to share the same dataset while maintaining distinct feature sets. However, SL is susceptible to backdoor attacks, in which malicious clients subtly alter their embeddings to insert hidden triggers that compromise the final trained model. To address this vulnerability, we introduce SecureSplit, a defense mechanism tailored to SL. SecureSplit applies a dimensionality transformation strategy to accentuate subtle differences between benign and poisoned embeddings, facilitating their separation. With this enhanced distinction, we develop an adaptive filtering approach that uses a majority-based voting scheme to remove contaminated embeddings while preserving clean ones. Rigorous experiments across four datasets (CIFAR-10, MNIST, CINIC-10, and ImageNette), five backdoor attack scenarios, and seven alternative defenses confirm the effectiveness of SecureSplit under various challenging conditions.
- Abstract(参考訳): Split Learning(SL)は、参加者が異なる機能セットを維持しながら同じデータセットを共有できるようにすることで、データのプライバシを尊重するコラボレーティブモデルトレーニングのためのフレームワークを提供する。
しかし、SLはバックドア攻撃の影響を受けやすく、悪意のあるクライアントが埋め込みを微妙に変更して、最終的なトレーニングモデルに悪影響を及ぼす隠されたトリガを挿入する。
この脆弱性に対処するために、SLに合わせた防御機構であるSecureSplitを導入する。
SecureSplitは、良性と有毒な埋め込みの微妙な違いを強調させるために、次元変換戦略を適用している。
これにより, 汚染された埋め込みを除去し, 清潔な埋め込みを保ちながら, 多数決投票方式を用いた適応フィルタリング手法を開発した。
4つのデータセット(CIFAR-10、MNIST、CINIC-10、ImageNette)にわたる厳密な実験、5つのバックドア攻撃シナリオと7つの防御策により、様々な困難な条件下でSecureSplitの有効性が確認された。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - Split Happens: Combating Advanced Threats with Split Learning and Function Secret Sharing [1.6822770693792823]
Split Learning(SL)は、モデルを2つの別々の部分に分割して、マシンラーニング(ML)プロセスを拡張しながら、クライアントデータを保護する。
最近の研究は、Secret Sharing(FSS)という新しいパラダイムを用いて、SLを確保するための有望な結果を示している。
論文 参考訳(メタデータ) (2025-07-14T17:18:07Z) - SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks [5.209316363034367]
ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
論文 参考訳(メタデータ) (2023-04-19T09:08:23Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - Similarity-based Label Inference Attack against Training and Inference of Split Learning [13.104547182351332]
分割学習は、プライバシを保存する分散学習のための有望なパラダイムである。
本稿では、スマッシュデータを含む交換された中間結果が、既にプライベートラベルを明らかにすることができることを示す。
トレーニングと推論の両段階において,プライベートラベルを効率よく回収する3つのラベル推論攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-10T08:02:03Z) - Feature Space Hijacking Attacks against Differentially Private Split
Learning [0.0]
分散学習と差分プライバシーは、分散データセット上でのプライバシーに準拠した高度な分析を支援する可能性がある技術である。
この研究は、クライアントサイドのオフザシェルフDPを使用して、差分プライバシ(DP)で強化されたスプリットニューラルネットワークの学習プロセスに、最近のフィーチャースペースハイジャック攻撃(FSHA)を適用している。
FSHA攻撃は、任意に設定されたDPエプシロンレベルでエラー率の低いクライアントのプライベートデータ再構成を取得する。
論文 参考訳(メタデータ) (2022-01-11T16:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。