論文の概要: Fairness and Accuracy in Federated Learning
- arxiv url: http://arxiv.org/abs/2012.10069v1
- Date: Fri, 18 Dec 2020 06:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:07:23.765999
- Title: Fairness and Accuracy in Federated Learning
- Title(参考訳): フェデレーション学習における公正性と正確性
- Authors: Wei Huang, Tianrui Li, Dexian Wang, Shengdong Du, Junbo Zhang
- Abstract要約: 本稿では,federated learning (fedfa) における公平性と正確性を高めるアルゴリズムを提案する。
二重運動量勾配を採用する最適化スキームを導入し、それによってモデルの収束速度を加速する。
トレーニング精度とトレーニング頻度の情報量を組み合わせてウェイトを測定するための適切なウェイト選択アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 17.218814060589956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the federated learning setting, multiple clients jointly train a model
under the coordination of the central server, while the training data is kept
on the client to ensure privacy. Normally, inconsistent distribution of data
across different devices in a federated network and limited communication
bandwidth between end devices impose both statistical heterogeneity and
expensive communication as major challenges for federated learning. This paper
proposes an algorithm to achieve more fairness and accuracy in federated
learning (FedFa). It introduces an optimization scheme that employs a double
momentum gradient, thereby accelerating the convergence rate of the model. An
appropriate weight selection algorithm that combines the information quantity
of training accuracy and training frequency to measure the weights is proposed.
This procedure assists in addressing the issue of unfairness in federated
learning due to preferences for certain clients. Our results show that the
proposed FedFa algorithm outperforms the baseline algorithm in terms of
accuracy and fairness.
- Abstract(参考訳): 連合学習設定では、複数のクライアントが中央サーバの調整の下でモデルを共同でトレーニングし、トレーニングデータをクライアントに保持してプライバシを確保する。
通常、フェデレーションネットワーク内の異なるデバイス間でのデータの一貫性のない分散と、エンドデバイス間の通信帯域の制限は、フェデレーション学習の主要な課題として統計的な異質性と高価な通信の両方を課す。
本稿では,フェデレート学習(FedFa)において,より公平で精度の高いアルゴリズムを提案する。
二重運動量勾配を利用する最適化スキームを導入し、それによってモデルの収束速度を加速する。
トレーニング精度の情報量とトレーニング周波数を組み合わせて重みを計測する適切な重み選択アルゴリズムを提案する。
この手順は、特定のクライアントの好みによるフェデレーション学習における不公平な問題に対処するのに役立つ。
提案したFedFaアルゴリズムは,精度と公平性の観点からベースラインアルゴリズムよりも優れていることを示す。
関連論文リスト
- QuAFL: Federated Averaging Can Be Both Asynchronous and
Communication-Efficient [22.432529149142976]
本稿では,非同期通信と通信圧縮の両方をサポートする古典的フェデレーション平均化アルゴリズム(FedAvg)を提案する。
実験的な側面から,我々のアルゴリズムは,標準的なフェデレーションタスクの高速な実践的収束を保証する。
論文 参考訳(メタデータ) (2022-06-20T22:39:39Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Speeding up Heterogeneous Federated Learning with Sequentially Trained
Superclients [19.496278017418113]
フェデレートラーニング(FL)は、ローカルなデータ共有を必要とせず、エッジデバイスの協調を可能にすることにより、プライバシに制約のあるシナリオで機械学習モデルをトレーニングすることを可能にする。
このアプローチは、ローカルデータセットとクライアントの計算的不均一性の異なる統計分布のために、いくつかの課題を提起する。
我々は、多種多様なクライアント、すなわちスーパークオリエントの部分グループのシーケンシャルトレーニングを活用して、集中型パラダイムをプライバシに準拠した方法でエミュレートする新しいフレームワークであるFedSeqを提案する。
論文 参考訳(メタデータ) (2022-01-26T12:33:23Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - FedMM: Saddle Point Optimization for Federated Adversarial Domain
Adaptation [6.3434032890855345]
フェデレートされたドメイン適応は、クライアント間のラベルの不均衡の頻度のため、ユニークなミニマックストレーニングタスクである。
本稿では,フェデレーション適応問題に特化して設計されたFedMMと呼ばれる分散ミニマックスドメインを提案する。
我々はFedMMがドメインシフトした教師なしデータで定常点への収束を保証することを証明した。
論文 参考訳(メタデータ) (2021-10-16T05:32:03Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Constrained Differentially Private Federated Learning for Low-bandwidth
Devices [1.1470070927586016]
本稿では,新しいプライバシー保護型連合学習方式を提案する。
これは、差分プライバシーに基づく理論上のプライバシー保証を提供する。
上流と下流の帯域幅を標準のフェデレート学習と比較して最大99.9%削減する。
論文 参考訳(メタデータ) (2021-02-27T22:25:06Z) - FedAUX: Leveraging Unlabeled Auxiliary Data in Federated Learning [14.10627556244287]
フェデレート蒸留(Federated Distillation, FD)は、フェデレート学習のための新しいアルゴリズムパラダイムである。
ラベルなし補助データから最大ユーティリティを導出することで性能を大幅に向上するFedAUXを提案する。
大規模畳み込みニューラルネットワークとトランスフォーマーモデルの実験により、FedAUXのトレーニング性能がSOTA FLベースライン法を上回ることを示した。
論文 参考訳(メタデータ) (2021-02-04T09:53:53Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。