論文の概要: FedDig: Robust Federated Learning Using Data Digest to Represent Absent
Clients
- arxiv url: http://arxiv.org/abs/2210.00737v2
- Date: Wed, 5 Oct 2022 03:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 14:28:46.128952
- Title: FedDig: Robust Federated Learning Using Data Digest to Represent Absent
Clients
- Title(参考訳): feddig: 欠席したクライアントを表すデータダイジェストを用いた堅牢なフェデレーション学習
- Authors: Chih-Fan Hsu, Ming-Ching Chang, Wei-Chao Chen
- Abstract要約: フェデレートラーニング(FL)は、クライアントデータのプライバシーを効果的に保護する。
トレーニング中のクライアントの欠席や離脱は、モデルパフォーマンスを著しく低下させる可能性がある。
本稿では、生データからデータダイジェストを生成し、FLモデレーターでのトレーニングをガイドすることで、この問題に対処する。
FedDigと呼ばれる提案されたFLフレームワークは、クライアントデータのプライバシを保持しながら、クロスサイロシナリオにおける予期せぬクライアントの不在を許容する。
- 参考スコア(独自算出の注目度): 14.541424678317302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) effectively protects client data privacy. However,
client absence or leaving during training can seriously degrade model
performances, particularly for unbalanced and non-IID client data. We address
this issue by generating data digests from the raw data and using them to guide
training at the FL moderator. The proposed FL framework, called FedDig, can
tolerate unexpected client absence in cross-silo scenarios while preserving
client data privacy because the digests de-identify the raw data by mixing
encoded features in the features space. We evaluate FedDig using EMNIST,
CIFAR-10, and CIFAR-100; the results consistently outperform against three
baseline algorithms (FedAvg, FedProx, and FedNova) by large margins in various
client absence scenarios.
- Abstract(参考訳): Federated Learning (FL)は、クライアントデータのプライバシーを効果的に保護する。
しかしながら、トレーニング中のクライアントの欠如や離脱は、特に不均衡で非IIDのクライアントデータに対して、モデルのパフォーマンスを著しく低下させる可能性がある。
生データからデータダイジェストを生成し、FLモデレーターでのトレーニングをガイドすることでこの問題に対処する。
FedDigと呼ばれる提案されたFLフレームワークは、クライアントデータのプライバシを保持しながら、クロスサイロシナリオにおける予期せぬクライアントの不在を許容することができる。
EMNIST, CIFAR-10, CIFAR-100を用いてFedDigの評価を行い, 各種クライアント不在シナリオにおいて, 3つのベースラインアルゴリズム(FedAvg, FedProx, FedNova)に対して一貫した性能を示した。
関連論文リスト
- Towards Fair, Robust and Efficient Client Contribution Evaluation in
Federated Learning [16.543724155324938]
FRECA(Fair, Robust, Efficient Client Assessment)と呼ばれる新しい手法を導入する。
FRECAはFedTruthというフレームワークを使用して、グローバルモデルの真実の更新を見積もり、すべてのクライアントからのコントリビューションのバランスをとり、悪意のあるクライアントからの影響をフィルタリングする。
実験の結果,FRECAはクライアントのコントリビューションをロバストな方法で正確かつ効率的に定量化できることがわかった。
論文 参考訳(メタデータ) (2024-02-06T21:07:12Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework [90.61139449550383]
FedGTは、フェデレート学習における悪意のあるクライアントを安全なアグリゲーションで識別するためのフレームワークである。
FedGTは、誤検知や誤報の確率が低い悪意のあるクライアントを識別できることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - DReS-FL: Dropout-Resilient Secure Federated Learning for Non-IID Clients
via Secret Data Sharing [7.573516684862637]
フェデレートラーニング(FL)は、クライアントのプライベートデータを集中的に収集することなく、機械学習モデルの協調トレーニングを可能にする。
本稿では,ラグランジュコンピューティングに基づくDropout-Resilient Secure Federated Learningフレームワークを提案する。
DReS-FLはクライアントのドロップアウトに対して耐性があり、ローカルデータセットのプライバシ保護を提供する。
論文 参考訳(メタデータ) (2022-10-06T05:04:38Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。