論文の概要: SecureSplit: Mitigating Backdoor Attacks in Split Learning
- arxiv url: http://arxiv.org/abs/2601.14054v2
- Date: Sat, 24 Jan 2026 03:11:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 13:23:48.793083
- Title: SecureSplit: Mitigating Backdoor Attacks in Split Learning
- Title(参考訳): SecureSplit: スプリット学習におけるバックドア攻撃の軽減
- Authors: Zhihao Dou, Dongfei Cui, Weida Wang, Anjun Gao, Yueyang Quan, Mengyao Ma, Viet Vo, Guangdong Bai, Zhuqing Liu, Minghong Fang,
- Abstract要約: Split Learning (SL)は、データのプライバシを尊重する協調モデルトレーニングのためのフレームワークを提供する。
SLは、悪意のあるクライアントが埋め込みを微調整して隠れたトリガーを挿入するバックドア攻撃の影響を受けやすい。
SLに合わせた防御機構であるSecureSplitを紹介する。
- 参考スコア(独自算出の注目度): 21.292323694691568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Learning (SL) offers a framework for collaborative model training that respects data privacy by allowing participants to share the same dataset while maintaining distinct feature sets. However, SL is susceptible to backdoor attacks, in which malicious clients subtly alter their embeddings to insert hidden triggers that compromise the final trained model. To address this vulnerability, we introduce SecureSplit, a defense mechanism tailored to SL. SecureSplit applies a dimensionality transformation strategy to accentuate subtle differences between benign and poisoned embeddings, facilitating their separation. With this enhanced distinction, we develop an adaptive filtering approach that uses a majority-based voting scheme to remove contaminated embeddings while preserving clean ones. Rigorous experiments across four datasets (CIFAR-10, MNIST, CINIC-10, and ImageNette), five backdoor attack scenarios, and seven alternative defenses confirm the effectiveness of SecureSplit under various challenging conditions.
- Abstract(参考訳): Split Learning(SL)は、参加者が異なる機能セットを維持しながら同じデータセットを共有できるようにすることで、データのプライバシを尊重するコラボレーティブモデルトレーニングのためのフレームワークを提供する。
しかし、SLはバックドア攻撃の影響を受けやすく、悪意のあるクライアントが埋め込みを微妙に変更して、最終的なトレーニングモデルに悪影響を及ぼす隠されたトリガを挿入する。
この脆弱性に対処するために、SLに合わせた防御機構であるSecureSplitを導入する。
SecureSplitは、良性と有毒な埋め込みの微妙な違いを強調させるために、次元変換戦略を適用している。
これにより, 汚染された埋め込みを除去し, 清潔な埋め込みを保ちながら, 多数決投票方式を用いた適応フィルタリング手法を開発した。
4つのデータセット(CIFAR-10、MNIST、CINIC-10、ImageNette)にわたる厳密な実験、5つのバックドア攻撃シナリオと7つの防御策により、様々な困難な条件下でSecureSplitの有効性が確認された。
関連論文リスト
- ProtegoFed: Backdoor-Free Federated Instruction Tuning with Interspersed Poisoned Data [50.142067708131826]
Federated Instruction Tuning (FIT)は、複数の組織(組織)にまたがる大規模な言語モデルの、プライベートなインストラクションの共有を必要とせずに、クロスサイロ環境での協調的なインストラクションチューニングを可能にする。
最近の研究では、有毒なサンプルが現実世界のデータセットに広範に埋め込まれており、たとえクライアントが良心的であっても、すべてのクライアントに分散している可能性が示唆されている。
ProtegoFedは、トレーニング中にクライアント間で汚染されたデータを正確に検出・浄化・分散する最初のバックドアフリーFITフレームワークである。
論文 参考訳(メタデータ) (2026-02-28T07:25:32Z) - SafeR-CLIP: Mitigating NSFW Content in Vision-Language Models While Preserving Pre-Trained Knowledge [51.634837361795434]
SaFeR-CLIPは安全性と性能を調整し、以前の方法に比べて最大8.0%のゼロショット精度を回復する。
NSFW-Capsは、分散シフト下での安全性をテストするために、1000の高度に整合したペアの新しいベンチマークである。
論文 参考訳(メタデータ) (2025-11-20T19:00:15Z) - ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - A Vision-Language Pre-training Model-Guided Approach for Mitigating Backdoor Attacks in Federated Learning [43.847168319564844]
視覚言語事前学習モデルのゼロショット学習機能を利用したFLバックドアディフェンスフレームワークCLIP-Fedを提案する。
本計画では, 防衛効果に課される非IIDの限界を克服し, 事前集約・後防衛戦略を統合する。
論文 参考訳(メタデータ) (2025-08-14T03:39:54Z) - Split Happens: Combating Advanced Threats with Split Learning and Function Secret Sharing [1.6822770693792823]
Split Learning(SL)は、モデルを2つの別々の部分に分割して、マシンラーニング(ML)プロセスを拡張しながら、クライアントデータを保護する。
最近の研究は、Secret Sharing(FSS)という新しいパラダイムを用いて、SLを確保するための有望な結果を示している。
論文 参考訳(メタデータ) (2025-07-14T17:18:07Z) - SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks [5.209316363034367]
ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
論文 参考訳(メタデータ) (2023-04-19T09:08:23Z) - CleanCLIP: Mitigating Data Poisoning Attacks in Multimodal Contrastive
Learning [63.72975421109622]
CleanCLIPは、バックドア攻撃によって引き起こされる学習された刺激的関連を弱める微調整フレームワークである。
CleanCLIPは、マルチモーダル・コントラッシブ・ラーニングに対するバックドア・アタックを根絶しながら、良質な例によるモデル性能を維持している。
論文 参考訳(メタデータ) (2023-03-06T17:48:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Similarity-based Label Inference Attack against Training and Inference of Split Learning [13.104547182351332]
分割学習は、プライバシを保存する分散学習のための有望なパラダイムである。
本稿では、スマッシュデータを含む交換された中間結果が、既にプライベートラベルを明らかにすることができることを示す。
トレーニングと推論の両段階において,プライベートラベルを効率よく回収する3つのラベル推論攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-10T08:02:03Z) - Feature Space Hijacking Attacks against Differentially Private Split
Learning [0.0]
分散学習と差分プライバシーは、分散データセット上でのプライバシーに準拠した高度な分析を支援する可能性がある技術である。
この研究は、クライアントサイドのオフザシェルフDPを使用して、差分プライバシ(DP)で強化されたスプリットニューラルネットワークの学習プロセスに、最近のフィーチャースペースハイジャック攻撃(FSHA)を適用している。
FSHA攻撃は、任意に設定されたDPエプシロンレベルでエラー率の低いクライアントのプライベートデータ再構成を取得する。
論文 参考訳(メタデータ) (2022-01-11T16:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。