論文の概要: Towards Privacy-Preserving and Heterogeneity-aware Split Federated Learning via Probabilistic Masking
- arxiv url: http://arxiv.org/abs/2509.14603v1
- Date: Thu, 18 Sep 2025 04:28:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.058814
- Title: Towards Privacy-Preserving and Heterogeneity-aware Split Federated Learning via Probabilistic Masking
- Title(参考訳): 確率的マスキングによるプライバシ保護と不均一性を考慮したフェデレーション学習に向けて
- Authors: Xingchen Wang, Feijie Wu, Chenglin Miao, Tianchun Li, Haoyu Hu, Qiming Cao, Jing Gao, Lu Su,
- Abstract要約: スプリット・フェデレート・ラーニング(SFL)は、従来のフェデレート・ラーニング(FL)に代わる効果的な代替手段として登場した。
本稿では,確率的マスクトレーニングを取り入れたスケーラブルかつプライバシ保護型SFLフレームワークPM-SFLを提案する。
画像および無線センシングタスクの実験は、PM-SFLが一貫して精度、通信効率、プライバシー攻撃を改善することを示した。
- 参考スコア(独自算出の注目度): 16.758567358839294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Federated Learning (SFL) has emerged as an efficient alternative to traditional Federated Learning (FL) by reducing client-side computation through model partitioning. However, exchanging of intermediate activations and model updates introduces significant privacy risks, especially from data reconstruction attacks that recover original inputs from intermediate representations. Existing defenses using noise injection often degrade model performance. To overcome these challenges, we present PM-SFL, a scalable and privacy-preserving SFL framework that incorporates Probabilistic Mask training to add structured randomness without relying on explicit noise. This mitigates data reconstruction risks while maintaining model utility. To address data heterogeneity, PM-SFL employs personalized mask learning that tailors submodel structures to each client's local data. For system heterogeneity, we introduce a layer-wise knowledge compensation mechanism, enabling clients with varying resources to participate effectively under adaptive model splitting. Theoretical analysis confirms its privacy protection, and experiments on image and wireless sensing tasks demonstrate that PM-SFL consistently improves accuracy, communication efficiency, and robustness to privacy attacks, with particularly strong performance under data and system heterogeneity.
- Abstract(参考訳): Split Federated Learning (SFL) は、モデル分割によるクライアント側の計算を削減し、従来のFederated Learning (FL) に代わる効率的な代替手段として登場した。
しかし、中間アクティベーションとモデル更新の交換は、特に中間表現から元の入力を復元するデータ再構成攻撃から、重大なプライバシーリスクをもたらす。
ノイズ注入による既存の防御は、しばしばモデル性能を劣化させる。
これらの課題を克服するため、PM-SFLは、確率的マスクトレーニングを組み込んだスケーラブルでプライバシー保護のSFLフレームワークであり、明示的なノイズに頼らずに構造化ランダム性を追加する。
これにより、モデルユーティリティを維持しながら、データ再構成のリスクを軽減できる。
データの不均一性に対処するため、PM-SFLでは、各クライアントのローカルデータにサブモデル構造をカスタマイズするパーソナライズされたマスク学習を採用している。
システム不均一性に対しては,階層的な知識補償機構を導入し,様々なリソースを持つクライアントが適応モデル分割の下で効果的に参加できるようにする。
理論的分析により、そのプライバシー保護が確認され、画像および無線センシングタスクの実験により、PM-SFLは、特にデータとシステムの不均一性下での強いパフォーマンスにより、プライバシー攻撃に対する正確性、通信効率、堅牢性を一貫して改善することが示された。
関連論文リスト
- FedRP: A Communication-Efficient Approach for Differentially Private Federated Learning Using Random Projection [1.4552744016611232]
フェデレートラーニング(FL)は、分散デバイス間の協調モデルトレーニングのための革新的なパラダイムを提供する。
その利点にもかかわらず、FLは潜在的な攻撃に対するユーザーのプライバシー保護と通信コストの管理に関する課題に直面している。
本稿では,FedRPと呼ばれる新しいフェデレーション学習アルゴリズムを提案する。このアルゴリズムは,ランダムプロジェクション手法とALMM(Alternating Direction Method of Multipliers)最適化フレームワークを統合する。
論文 参考訳(メタデータ) (2025-09-12T08:08:48Z) - Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - RL-Finetuned LLMs for Privacy-Preserving Synthetic Rewriting [17.294176570269]
本稿では,複合報酬関数を用いた大規模言語モデル(LLM)を微調整する強化学習フレームワークを提案する。
プライバシ報酬は、セマンティックキューと、潜伏表現上の最小スパンニングツリー(MST)から派生した構造パターンを組み合わせる。
実験の結果,提案手法はセマンティック品質を劣化させることなく,著者の難読化とプライバシーの指標を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-25T04:38:19Z) - FedP3E: Privacy-Preserving Prototype Exchange for Non-IID IoT Malware Detection in Cross-Silo Federated Learning [5.7494612007431805]
データプライバシを維持しつつ、間接的なクライアント間表現共有をサポートする新しいFLフレームワークであるFedP3Eを提案する。
我々は,N-BaIoTデータセット上のFedP3Eを,データ不均衡の程度が異なる現実的なクロスサイロシナリオ下で評価した。
論文 参考訳(メタデータ) (2025-07-09T20:07:35Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。