論文の概要: Guarding the Middle: Protecting Intermediate Representations in Federated Split Learning
- arxiv url: http://arxiv.org/abs/2602.17614v1
- Date: Thu, 19 Feb 2026 18:40:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.312662
- Title: Guarding the Middle: Protecting Intermediate Representations in Federated Split Learning
- Title(参考訳): 中間の保護:フェデレート・スプリット・ラーニングにおける中間表現の保護
- Authors: Obaidullah Zaland, Sajib Mistry, Monowar Bhuyan,
- Abstract要約: フェデレーション学習は、データ集中化なしで、クライアント間で機械学習(ML)モデルの分散トレーニングを可能にする。
クライアントがサーバと共有する中間表現は、クライアントのプライベートデータを露出する傾向がある。
この研究は、サーバに転送されたスマッシュデータからのデータ漏洩を最小限に抑えるために、k匿名の微分プライベートなUFSLを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Big data scenarios, where massive, heterogeneous datasets are distributed across clients, demand scalable, privacy-preserving learning methods. Federated learning (FL) enables decentralized training of machine learning (ML) models across clients without data centralization. Decentralized training, however, introduces a computational burden on client devices. U-shaped federated split learning (UFSL) offloads a fraction of the client computation to the server while keeping both data and labels on the clients' side. However, the intermediate representations (i.e., smashed data) shared by clients with the server are prone to exposing clients' private data. To reduce exposure of client data through intermediate data representations, this work proposes k-anonymous differentially private UFSL (KD-UFSL), which leverages privacy-enhancing techniques such as microaggregation and differential privacy to minimize data leakage from the smashed data transferred to the server. We first demonstrate that an adversary can access private client data from intermediate representations via a data-reconstruction attack, and then present a privacy-enhancing solution, KD-UFSL, to mitigate this risk. Our experiments indicate that, alongside increasing the mean squared error between the actual and reconstructed images by up to 50% in some cases, KD-UFSL also decreases the structural similarity between them by up to 40% on four benchmarking datasets. More importantly, KD-UFSL improves privacy while preserving the utility of the global model. This highlights its suitability for large-scale big data applications where privacy and utility must be balanced.
- Abstract(参考訳): 大規模で異質なデータセットがクライアントに分散するビッグデータシナリオでは、スケーラブルでプライバシ保護の学習方法が求められます。
フェデレートラーニング(FL)は、データ集中化なしでクライアント間で機械学習(ML)モデルの分散トレーニングを可能にする。
しかし、分散トレーニングはクライアントデバイスに計算負荷をもたらす。
U字型連合分割学習(UFSL)は、クライアント側のデータとラベルの両方を保持しながら、クライアントの計算の一部をサーバにオフロードする。
しかし、クライアントがサーバと共有する中間表現(すなわち、スマッシュされたデータ)は、クライアントのプライベートデータを公開しがちである。
中間データ表現によるクライアントデータの露出を低減するため,マイクロアグリゲーションやディファレンシャルプライバシといったプライバシー強化技術を活用して,サーバに転送したスマッシュデータからのデータの漏洩を最小限に抑えるKD-UFSL(KD-UFSL)を提案する。
まず,データ再構成攻撃によって中間表現からプライベートクライアントデータにアクセスし,そのリスクを軽減するためにプライバシ強化ソリューションKD-UFSLを提案する。
実験の結果,実際の画像と再構成画像間の平均2乗誤差を最大50%増加させるとともに,KD-UFSLは4つのベンチマークデータセットにおいて,それらの構造的類似性を最大40%減少させることがわかった。
さらに重要なのは、KD-UFSLはグローバルモデルの実用性を維持しながら、プライバシを改善することだ。
これは、プライバシとユーティリティのバランスをとる必要がある大規模ビッグデータアプリケーションに適していることを強調している。
関連論文リスト
- Efficient Federated Learning with Encrypted Data Sharing for Data-Heterogeneous Edge Devices [12.709837838251952]
我々は,フェデレートラーニングと暗号化データ共有という,エッジデバイス上での新しいフェデレーションラーニング手法を提案する。
FedEDSはクライアントモデルとモデルのレイヤを使用して、データ暗号化をトレーニングし、他のクライアントと共有します。
このアプローチは、フェデレーション学習トレーニングの収束速度を加速し、データ不均一性の負の影響を緩和する。
論文 参考訳(メタデータ) (2025-06-25T17:40:54Z) - FedRand: Enhancing Privacy in Federated Learning with Randomized LoRA Subparameter Updates [58.18162789618869]
フェデレートラーニング(FL)は、モデルを分散的にトレーニングするための広く使われているフレームワークである。
我々はFedRandフレームワークを提案し、クライアントパラメータの完全な集合を開示するのを避ける。
我々はFedRandがMIAに対するロバスト性を改善することを、関連するベースラインと比較して実証的に検証する。
論文 参考訳(メタデータ) (2025-03-10T11:55:50Z) - Using Synthetic Data to Mitigate Unfairness and Preserve Privacy in Collaborative Machine Learning [6.516872951510096]
コラボレーション型機械学習は、複数のクライアントが協力してグローバルモデルをトレーニングすることを可能にする。
このような設定でプライバシを維持するために、モデルパラメータの頻繁な更新と送信を利用するのが一般的な手法である。
本稿では、公正な予測を促進し、クライアントデータ漏洩を防止し、通信コストを削減するための2段階戦略を提案する。
論文 参考訳(メタデータ) (2024-09-14T21:04:11Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - LOKI: Large-scale Data Reconstruction Attack against Federated Learning
through Model Manipulation [25.03733882637947]
従来の制限を克服し,アグリゲーションの匿名性を破る攻撃であるLOKIを導入する。
FedAVGと100のクライアントの集約により、以前の作業はMNIST、CIFAR-100、Tiny ImageNetのイメージの1%未満をリークすることができる。
LOKIは1回のトレーニングラウンドのみを使用して、すべてのデータサンプルの76~86%をリークすることができる。
論文 参考訳(メタデータ) (2023-03-21T23:29:35Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。