論文の概要: Gradual Federated Learning with Simulated Annealing
- arxiv url: http://arxiv.org/abs/2110.05178v1
- Date: Mon, 11 Oct 2021 11:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 18:55:29.878694
- Title: Gradual Federated Learning with Simulated Annealing
- Title(参考訳): シミュレートアニーリングによる段階的フェデレーション学習
- Authors: Luong Trung Nguyen, Junhan Kim, and Byonghyo Shim
- Abstract要約: フェデレート平均化(FedAvg)は、ローカルモデルを平均化してグローバルモデルを更新する一般的なフェデレーション学習(FL)技術である。
本稿では,シミュレーションアニーリングに基づく新しいFL法を提案する。
本稿では,従来のFedAvg法よりも収束速度と分類精度が優れていることを示す。
- 参考スコア(独自算出の注目度): 26.956032164461377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated averaging (FedAvg) is a popular federated learning (FL) technique
that updates the global model by averaging local models and then transmits the
updated global model to devices for their local model update. One main
limitation of FedAvg is that the average-based global model is not necessarily
better than local models in the early stage of the training process so that
FedAvg might diverge in realistic scenarios, especially when the data is
non-identically distributed across devices and the number of data samples
varies significantly from device to device. In this paper, we propose a new FL
technique based on simulated annealing. The key idea of the proposed technique,
henceforth referred to as \textit{simulated annealing-based FL} (SAFL), is to
allow a device to choose its local model when the global model is immature.
Specifically, by exploiting the simulated annealing strategy, we make each
device choose its local model with high probability in early iterations when
the global model is immature. From extensive numerical experiments using
various benchmark datasets, we demonstrate that SAFL outperforms the
conventional FedAvg technique in terms of the convergence speed and the
classification accuracy.
- Abstract(参考訳): フェデレーション平均化(FedAvg)は、ローカルモデルを平均化してグローバルモデルを更新し、更新されたグローバルモデルをローカルモデル更新のためにデバイスに送信する、一般的なフェデレーション学習(FL)技術である。
fedavgの主な制限の1つは、トレーニングプロセスの初期段階において、平均ベースのグローバルモデルが必ずしもローカルモデルより優れているとは限らないことである。
本稿では,シミュレーションアニールに基づく新しいFL法を提案する。
提案手法の鍵となるアイデアは、それゆえ \textit{simulated annealing-based fl} (safl) と呼ばれ、グローバルモデルが未熟なときにデバイスがローカルモデルを選択できるようにすることである。
具体的には,シミュレートアニーリング戦略を活用し,グローバルモデルが未成熟な場合には,各デバイスが初期イテレーションにおいて高い確率で局所モデルを選択する。
様々なベンチマークデータセットを用いた広範な数値実験から、SAFLは収束速度と分類精度の点で従来のFedAvg技術より優れていることを示した。
関連論文リスト
- Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - Straggler-resilient Federated Learning: Tackling Computation
Heterogeneity with Layer-wise Partial Model Training in Mobile Edge Network [4.1813760301635705]
本稿では,FedPMT(Federated partial Model Training)を提案する。
したがって、FedPMTのすべてのデバイスは、グローバルモデルの最も重要な部分を優先している。
実証的な結果は、FedPMTが既存のベンチマークFedDropを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-16T16:30:04Z) - Fed-FSNet: Mitigating Non-I.I.D. Federated Learning via Fuzzy
Synthesizing Network [19.23943687834319]
フェデレートラーニング(FL)は、将来性のあるプライバシ保護分散機械学習フレームワークとして登場した。
我々は、Fed-FSNetと呼ばれる新しいFLトレーニングフレームワークを提案し、Fed-FSNet(Fed-FSNet)を適切に設計し、非I.I.D.のオープンソース問題を軽減する。
論文 参考訳(メタデータ) (2022-08-21T18:40:51Z) - FedEntropy: Efficient Device Grouping for Federated Learning Using
Maximum Entropy Judgment [10.507028041279048]
Federated Learning(FL)は、有望な分散機械学習パラダイムとして、着実に注目を集めている。
FLは本質的に、非IIDシナリオでは分類精度が低い。
本稿では,FedEntropy という新しい動的デバイスグループ化方式を用いた実効FL法を提案する。
論文 参考訳(メタデータ) (2022-05-24T12:45:17Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - FedCAT: Towards Accurate Federated Learning via Device Concatenation [4.416919766772866]
Federated Learning(FL)は、すべてのデバイスが、ローカルデータのプライバシを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
非IIDシナリオでは、データの不均一性に起因する重みのばらつきにより、FLモデルの分類精度が大幅に低下する。
本稿では,Fed-Cat という新しいFLアプローチを導入し,提案したデバイス選択戦略とデバイス結合に基づく局所学習手法に基づいて,高精度なモデル精度を実現する。
論文 参考訳(メタデータ) (2022-02-23T10:08:43Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z) - UVeQFed: Universal Vector Quantization for Federated Learning [179.06583469293386]
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
論文 参考訳(メタデータ) (2020-06-05T07:10:22Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。