論文の概要: FedDig: Robust Federated Learning Using Data Digest to Represent Absent
Clients
- arxiv url: http://arxiv.org/abs/2210.00737v1
- Date: Mon, 3 Oct 2022 06:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:38:10.081445
- Title: FedDig: Robust Federated Learning Using Data Digest to Represent Absent
Clients
- Title(参考訳): feddig: 欠席したクライアントを表すデータダイジェストを用いた堅牢なフェデレーション学習
- Authors: Chih-Fan Hsu, Ming-Ching Chang, Wei-Chao Chen
- Abstract要約: フェデレートラーニング(FL)は、クライアントデータのプライバシーを効果的に保護する。
トレーニング中のクライアントの欠席や離脱は、モデルパフォーマンスを著しく低下させる可能性がある。
本稿では、生データからデータダイジェストを生成し、FLモデレーターでのトレーニングをガイドすることで、この問題に対処する。
FedDigと呼ばれる提案されたFLフレームワークは、クライアントデータのプライバシを保持しながら、クロスサイロシナリオにおける予期せぬクライアントの不在を許容する。
- 参考スコア(独自算出の注目度): 14.541424678317302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) effectively protects client data privacy. However,
client absence or leaving during training can seriously degrade model
performances, particularly for unbalanced and non-IID client data. We address
this issue by generating data digests from the raw data and using them to guide
training at the FL moderator. The proposed FL framework, called FedDig, can
tolerate unexpected client absence in cross-silo scenarios while preserving
client data privacy because the digests de-identify the raw data by mixing
encoded features in the features space. We evaluate FedDig using EMNIST,
CIFAR-10, and CIFAR-100; the results consistently outperform against three
baseline algorithms (FedAvg, FedProx, and FedNova) by large margins in various
client absence scenarios.
- Abstract(参考訳): Federated Learning (FL)は、クライアントデータのプライバシーを効果的に保護する。
しかしながら、トレーニング中のクライアントの欠如や離脱は、特に不均衡で非IIDのクライアントデータに対して、モデルのパフォーマンスを著しく低下させる可能性がある。
生データからデータダイジェストを生成し、FLモデレーターでのトレーニングをガイドすることでこの問題に対処する。
FedDigと呼ばれる提案されたFLフレームワークは、クライアントデータのプライバシを保持しながら、クロスサイロシナリオにおける予期せぬクライアントの不在を許容することができる。
EMNIST, CIFAR-10, CIFAR-100を用いてFedDigの評価を行い, 各種クライアント不在シナリオにおいて, 3つのベースラインアルゴリズム(FedAvg, FedProx, FedNova)に対して一貫した性能を示した。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Feature Matching Data Synthesis for Non-IID Federated Learning [7.740333805796447]
フェデレーション学習(FL)は、中央サーバでデータを収集することなく、エッジデバイス上でニューラルネットワークをトレーニングする。
本稿では,局所モデル以外の補助データを共有するハード特徴マッチングデータ合成(HFMDS)手法を提案する。
プライバシーの保存性を向上するため,本研究では,実際の特徴を決定境界に向けて伝達する機能拡張手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T07:49:39Z) - A Simple Data Augmentation for Feature Distribution Skewed Federated
Learning [12.636154758643757]
フェデレートラーニング(FL)は、複数のクライアント間の協調学習を分散的に支援し、プライバシ保護を保証する。
本稿では,現実世界のアプリケーションに広く普及しているFLシナリオの特徴分布に着目した。
特徴分布スキュードFLの簡易かつ極めて効果的なデータ拡張法であるFedRDNを提案する。
論文 参考訳(メタデータ) (2023-06-14T05:46:52Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Vertical federated learning based on DFP and BFGS [0.0]
本稿では,dfp と bfgs (bdfl) を用いた新しい垂直フェデレート学習フレームワークを提案する。
実データセットを用いてBDFLフレームワークの効率性をテストする。
論文 参考訳(メタデータ) (2021-01-23T06:15:04Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。