論文の概要: HealSplit: Towards Self-Healing through Adversarial Distillation in Split Federated Learning
- arxiv url: http://arxiv.org/abs/2511.11240v1
- Date: Fri, 14 Nov 2025 12:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.591671
- Title: HealSplit: Towards Self-Healing through Adversarial Distillation in Split Federated Learning
- Title(参考訳): HealSplit: 分散フェデレーション学習における対人蒸留による自己修復を目指して
- Authors: Yuhan Xie, Chen Lyu,
- Abstract要約: Split Federated Learning (SFL)は、プライバシ保護のための分散学習のための新興パラダイムである。
ローカルな特徴、ラベル、スマッシュデータ、モデルウェイトをターゲットとした高度なデータ中毒攻撃には、依然として脆弱である。
本稿では,SFL用に開発された最初の統一防衛フレームワークであるHealSplitについて述べる。
- 参考スコア(独自算出の注目度): 2.8115115690134744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Federated Learning (SFL) is an emerging paradigm for privacy-preserving distributed learning. However, it remains vulnerable to sophisticated data poisoning attacks targeting local features, labels, smashed data, and model weights. Existing defenses, primarily adapted from traditional Federated Learning (FL), are less effective under SFL due to limited access to complete model updates. This paper presents HealSplit, the first unified defense framework tailored for SFL, offering end-to-end detection and recovery against five sophisticated types of poisoning attacks. HealSplit comprises three key components: (1) a topology-aware detection module that constructs graphs over smashed data to identify poisoned samples via topological anomaly scoring (TAS); (2) a generative recovery pipeline that synthesizes semantically consistent substitutes for detected anomalies, validated by a consistency validation student; and (3) an adversarial multi-teacher distillation framework trains the student using semantic supervision from a Vanilla Teacher and anomaly-aware signals from an Anomaly-Influence Debiasing (AD) Teacher, guided by the alignment between topological and gradient-based interaction matrices. Extensive experiments on four benchmark datasets demonstrate that HealSplit consistently outperforms ten state-of-the-art defenses, achieving superior robustness and defense effectiveness across diverse attack scenarios.
- Abstract(参考訳): Split Federated Learning (SFL)は、プライバシ保護のための分散学習のための新興パラダイムである。
しかし、ローカルな特徴、ラベル、スマッシュデータ、モデルウェイトを標的とした高度なデータ中毒攻撃には、依然として脆弱である。
既存の防御は、主に従来のフェデレートラーニング(FL)に適応しているが、完全なモデル更新へのアクセスが限られているため、SFLでは効果が低い。
本稿では,SFL用に開発された最初の統合防御フレームワークであるHealSplitについて述べる。
HealSplitは,(1)トポロジカル・アノマリー・スコアリング(TAS),(2)検出された異常に対して意味的に一貫した代替品を合成する生成的回復パイプライン,(3)バニラ教師のセマンティック・インフルエンス・デバイアスング(AD)の異常・アノマ・アノマ・アノマ・アノマ・アノマ・シグナルを用いて生徒を訓練する。
4つのベンチマークデータセットに対する大規模な実験によると、HealSplitは10の最先端の防御を一貫して上回り、多様な攻撃シナリオに対して優れた堅牢性と防御効率を達成する。
関連論文リスト
- GuardFed: A Trustworthy Federated Learning Framework Against Dual-Facet Attacks [56.983319121358555]
フェデレートラーニング(FL)は、プライバシ保護のための協調モデルトレーニングを可能にするが、敵の行動に弱いままである。
本稿では,予測精度とグループフェアネスを同時に損なう新たな脅威モデルであるデュアル顔攻撃(DFA)を紹介する。
本稿では,少量のクリーンサーバデータを用いて,公正な参照モデルを維持する自己適応型防衛フレームワークであるGuardFedを提案する。
論文 参考訳(メタデータ) (2025-11-12T13:02:45Z) - LADSG: Label-Anonymized Distillation and Similar Gradient Substitution for Label Privacy in Vertical Federated Learning [15.24974575465626]
VFL(Vertical Federated Learning)のための統一的で軽量な防衛フレームワークであるLADSG(Lallel-Anonymized Defense with Substitution Gradient)を提案する。
LADSGはまず、ソフト蒸留により真のラベルを匿名化し、セマンティックな露出を減らす。
6つの実世界のデータセットに対する大規模な実験により、LADSGは3種類のラベル推論攻撃の成功率を30~60%削減し、計算オーバーヘッドを最小限に抑え、その実用性を示している。
論文 参考訳(メタデータ) (2025-06-07T10:10:56Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - STDLens: Model Hijacking-Resilient Federated Learning for Object
Detection [13.895922908738507]
Federated Learning (FL)は、ディープラーニングに基づくオブジェクト検出モデルをクライアントの分散集団でトレーニングするための協調学習フレームワークとして人気を集めている。
その利点にもかかわらず、FLはモデルハイジャックに弱い。
本稿では,このような攻撃に対してFLを保護するための原則的アプローチであるSTDLensを紹介する。
論文 参考訳(メタデータ) (2023-03-21T00:15:53Z) - Improved Certified Defenses against Data Poisoning with (Deterministic)
Finite Aggregation [122.83280749890078]
本報告では, 一般中毒に対する予防的対策として, フィニット・アグリゲーション(Finite Aggregation)を提案する。
トレーニングセットを直接非結合部分集合に分割するDPAとは対照的に、我々の方法はまず、トレーニングセットをより小さな非結合部分集合に分割する。
我々は、決定論的および集約的認証された防御設計をブリッジして、我々の方法の代替的な見解を提供する。
論文 参考訳(メタデータ) (2022-02-05T20:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。