論文の概要: FedEntropy: Efficient Device Grouping for Federated Learning Using
Maximum Entropy Judgment
- arxiv url: http://arxiv.org/abs/2205.12038v1
- Date: Tue, 24 May 2022 12:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 15:18:46.853509
- Title: FedEntropy: Efficient Device Grouping for Federated Learning Using
Maximum Entropy Judgment
- Title(参考訳): FedEntropy: 最大エントロピー判断を用いたフェデレーション学習のための効率的なデバイスグループ化
- Authors: Zhiwei Ling, Zhihao Yue, Jun Xia, Ming Hu, Ting Wang, Mingsong Chen
- Abstract要約: Federated Learning(FL)は、有望な分散機械学習パラダイムとして、着実に注目を集めている。
FLは本質的に、非IIDシナリオでは分類精度が低い。
本稿では,FedEntropy という新しい動的デバイスグループ化方式を用いた実効FL法を提案する。
- 参考スコア(独自算出の注目度): 10.507028041279048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Along with the popularity of Artificial Intelligence (AI) and
Internet-of-Things (IoT), Federated Learning (FL) has attracted steadily
increasing attentions as a promising distributed machine learning paradigm,
which enables the training of a central model on for numerous decentralized
devices without exposing their privacy. However, due to the biased data
distributions on involved devices, FL inherently suffers from low
classification accuracy in non-IID scenarios. Although various device grouping
method have been proposed to address this problem, most of them neglect both i)
distinct data distribution characteristics of heterogeneous devices, and ii)
contributions and hazards of local models, which are extremely important in
determining the quality of global model aggregation. In this paper, we present
an effective FL method named FedEntropy with a novel dynamic device grouping
scheme, which makes full use of the above two factors based on our proposed
maximum entropy judgement heuristic.Unlike existing FL methods that directly
aggregate local models returned from all the selected devices, in one FL round
FedEntropy firstly makes a judgement based on the pre-collected soft labels of
selected devices and then only aggregates the local models that can maximize
the overall entropy of these soft labels. Without collecting local models that
are harmful for aggregation, FedEntropy can effectively improve global model
accuracy while reducing the overall communication overhead. Comprehensive
experimental results on well-known benchmarks show that, FedEntropy not only
outperforms state-of-the-art FL methods in terms of model accuracy and
communication overhead, but also can be integrated into them to enhance their
classification performance.
- Abstract(参考訳): 人工知能(ai)やiot(internet-of-things)の普及とともに、フェデレーション学習(fl)は、プライバシを露呈することなく、多数の分散デバイスを対象とした中央モデルのトレーニングを可能にする、有望な分散機械学習パラダイムとして、着実に注目を集めている。
しかし、関連するデバイス上の偏りのあるデータ分布のため、FLは本質的に非IIDシナリオでは分類精度が低い。
この問題に対処するために様々なデバイスグループ化手法が提案されているが、そのほとんどは両方を無視している。
一 異種機器の異なるデータ分布特性、及び
二 グローバルモデル集約の質を決定する上で極めて重要である局所モデルの寄与及び危険
In this paper, we present an effective FL method named FedEntropy with a novel dynamic device grouping scheme, which makes full use of the above two factors based on our proposed maximum entropy judgement heuristic.Unlike existing FL methods that directly aggregate local models returned from all the selected devices, in one FL round FedEntropy firstly makes a judgement based on the pre-collected soft labels of selected devices and then only aggregates the local models that can maximize the overall entropy of these soft labels.
集約に有害なローカルモデルを集めることなしに、FedEntropyは全体の通信オーバーヘッドを減らしながら、グローバルモデル精度を効果的に向上させることができる。
その結果,FedEntropyはモデル精度と通信オーバーヘッドの点で最先端のFL法よりも優れるだけでなく,それらの分類性能を高めるために統合できることがわかった。
関連論文リスト
- Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Straggler-resilient Federated Learning: Tackling Computation
Heterogeneity with Layer-wise Partial Model Training in Mobile Edge Network [4.1813760301635705]
本稿では,FedPMT(Federated partial Model Training)を提案する。
したがって、FedPMTのすべてのデバイスは、グローバルモデルの最も重要な部分を優先している。
実証的な結果は、FedPMTが既存のベンチマークFedDropを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-16T16:30:04Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - FedCAT: Towards Accurate Federated Learning via Device Concatenation [4.416919766772866]
Federated Learning(FL)は、すべてのデバイスが、ローカルデータのプライバシを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
非IIDシナリオでは、データの不均一性に起因する重みのばらつきにより、FLモデルの分類精度が大幅に低下する。
本稿では,Fed-Cat という新しいFLアプローチを導入し,提案したデバイス選択戦略とデバイス結合に基づく局所学習手法に基づいて,高精度なモデル精度を実現する。
論文 参考訳(メタデータ) (2022-02-23T10:08:43Z) - FedHM: Efficient Federated Learning for Heterogeneous Models via
Low-rank Factorization [16.704006420306353]
スケーラブルなフェデレート学習フレームワークは、異なる計算能力と通信能力を備えた異種クライアントに対処する必要がある。
本稿では,不均一な低ランクモデルをクライアントに分散し,それらをグローバルなフルランクモデルに集約する,新しいフェデレーションモデル圧縮フレームワークであるFedHMを提案する。
我々のソリューションは、計算複雑性の異なる異種局所モデルの訓練を可能にし、単一の大域的モデルを集約する。
論文 参考訳(メタデータ) (2021-11-29T16:11:09Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Gradual Federated Learning with Simulated Annealing [26.956032164461377]
フェデレート平均化(FedAvg)は、ローカルモデルを平均化してグローバルモデルを更新する一般的なフェデレーション学習(FL)技術である。
本稿では,シミュレーションアニーリングに基づく新しいFL法を提案する。
本稿では,従来のFedAvg法よりも収束速度と分類精度が優れていることを示す。
論文 参考訳(メタデータ) (2021-10-11T11:57:56Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。