論文の概要: Mitigating Data Absence in Federated Learning Using Privacy-Controllable Data Digests
- arxiv url: http://arxiv.org/abs/2210.00737v4
- Date: Mon, 28 Oct 2024 13:55:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 16:01:31.296438
- Title: Mitigating Data Absence in Federated Learning Using Privacy-Controllable Data Digests
- Title(参考訳): プライバシ制御可能なデータダイジェストを用いたフェデレーション学習におけるデータの欠如の軽減
- Authors: Chih-Fan Hsu, Ming-Ching Chang, Wei-Chao Chen,
- Abstract要約: フェデレートラーニングとデータダイジェスト(FedDig)フレームワークを紹介します。
FedDigは、新しいプライバシー管理可能なデータダイジェスト表現を使用して、予期しない配布変更を管理する。
さまざまなデータ欠如のシナリオにおいて、5つのベースラインアルゴリズムをかなり上回ります。
- 参考スコア(独自算出の注目度): 12.65383500988952
- License:
- Abstract: The absence of training data and their distribution changes in federated learning (FL) can significantly undermine model performance, especially in cross-silo scenarios. To address this challenge, we introduce the Federated Learning with Data Digest (FedDig) framework. FedDig manages unexpected distribution changes using a novel privacy-controllable data digest representation. This framework allows FL users to adjust the protection levels of the digest by manipulating hyperparameters that control the mixing of multiple low-dimensional features and applying differential privacy perturbation to these mixed features. Evaluation of FedDig across four diverse public datasets shows that it consistently outperforms five baseline algorithms by substantial margins in various data absence scenarios. We also thoroughly explored FedDig's hyperparameters, demonstrating its adaptability. Notably, the FedDig plugin design is inherently extensible and compatible with existing FL algorithms.
- Abstract(参考訳): フェデレートラーニング(FL)におけるトレーニングデータの欠如とその分布変化は,特にクロスサイロシナリオにおいて,モデル性能を著しく損なう可能性がある。
この課題に対処するために、フェデレートラーニングとデータダイジェスト(FedDig)フレームワークを紹介します。
FedDigは、新しいプライバシー管理可能なデータダイジェスト表現を使用して、予期しない配布変更を管理する。
このフレームワークにより、FLユーザは、複数の低次元特徴の混合を制御し、これらの混合特徴に差分プライバシー摂動を適用するハイパーパラメータを操作することで、消化の保護レベルを調整できる。
4つの公開データセットに対するFedDigの評価は、さまざまなデータ欠如シナリオにおいて、5つのベースラインアルゴリズムをはるかに上回っていることを示している。
また,FedDigのハイパーパラメータを徹底的に検討し,適応性を示した。
特に、FedDigプラグインの設計は本質的に拡張可能であり、既存のFLアルゴリズムと互換性がある。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Feature Matching Data Synthesis for Non-IID Federated Learning [7.740333805796447]
フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:49:39Z) - A Simple Data Augmentation for Feature Distribution Skewed Federated
Learning [12.636154758643757]
フェデレートラーニング(FL)は、複数のクライアント間の協調学習を分散的に支援し、プライバシ保護を保証する。
本稿では,現実世界のアプリケーションに広く普及しているFLシナリオの特徴分布に着目した。
特徴分布スキュードFLの簡易かつ極めて効果的なデータ拡張法であるFedRDNを提案する。
論文 参考訳(メタデータ) (2023-06-14T05:46:52Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Vertical federated learning based on DFP and BFGS [0.0]
本稿では,dfp と bfgs (bdfl) を用いた新しい垂直フェデレート学習フレームワークを提案する。
実データセットを用いてBDFLフレームワークの効率性をテストする。
論文 参考訳(メタデータ) (2021-01-23T06:15:04Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。