論文の概要: Effective Federated Adaptive Gradient Methods with Non-IID Decentralized
Data
- arxiv url: http://arxiv.org/abs/2009.06557v2
- Date: Tue, 22 Dec 2020 01:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:40:37.013637
- Title: Effective Federated Adaptive Gradient Methods with Non-IID Decentralized
Data
- Title(参考訳): 非IID分散データを用いた効果的なFederated Adaptive Gradient法
- Authors: Qianqian Tong, Guannan Liang and Jinbo Bi
- Abstract要約: フェデレーション学習は、デバイスがデータ共有なしで協調的にモデルを学習することを可能にする。
本稿では,第1次および第2次カリブレータを併用したフェデレートAGMを提案する。
我々は、標準のAdam byepsilonを含む、連邦学習の校正スキームを比較した。
- 参考スコア(独自算出の注目度): 18.678289386084113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows loads of edge computing devices to collaboratively
learn a global model without data sharing. The analysis with partial device
participation under non-IID and unbalanced data reflects more reality. In this
work, we propose federated learning versions of adaptive gradient methods -
Federated AGMs - which employ both the first-order and second-order momenta, to
alleviate generalization performance deterioration caused by dissimilarity of
data population among devices. To further improve the test performance, we
compare several schemes of calibration for the adaptive learning rate,
including the standard Adam calibrated by $\epsilon$, $p$-Adam, and one
calibrated by an activation function. Our analysis provides the first set of
theoretical results that the proposed (calibrated) Federated AGMs converge to a
first-order stationary point under non-IID and unbalanced data settings for
nonconvex optimization. We perform extensive experiments to compare these
federated learning methods with the state-of-the-art FedAvg, FedMomentum and
SCAFFOLD and to assess the different calibration schemes and the advantages of
AGMs over the current federated learning methods.
- Abstract(参考訳): フェデレートされた学習により、エッジコンピューティングデバイスの負荷が、データ共有なしでグローバルモデルを協調的に学習することが可能になる。
非IIDおよびアンバランスデータに基づく部分的デバイス参加の分析は、より現実を反映している。
本研究では,デバイス間のデータ集団の相違による一般化性能劣化を軽減するために,第1次と第2次の両方のモータを用いた適応勾配手法のフェデレーション学習版を提案する。
テスト性能をさらに向上させるために,アダプティブ・ラーニング・レートのキャリブレーションについて,$\epsilon$,$p$-adamでキャリブレーションされた標準adamや,アクティベーション関数でキャリブレーションされた標準adamなど,いくつかの手法を比較した。
提案手法は,非iidおよび非平衡データ設定下で一階定常点に収束し,非凸最適化を行うという理論的な結果の第一セットを提供する。
本研究では,これらのフェデレート学習法と最新のフェデレート学習法,フェデレート学習法,足場を比較し,現在のフェデレート学習法と比較して,異なるキャリブレーション方式とagmsの利点を評価した。
関連論文リスト
- Parameter Tracking in Federated Learning with Adaptive Optimization [14.111863825607001]
フェデレートラーニング(FL)では、モデルトレーニングのパフォーマンスはクライアント間のデータ不均一性に強く影響されます。
GT(Gradient Tracking)は、最近、局所モデル更新に修正項を導入することでこの問題を軽減するソリューションとして登場した。
現在まで、GTはグラディエント(SGD)ベースのDescentトレーニングしか考慮されていないが、現代のFLフレームワークは収束を改善するために適応性を採用する傾向にある。
論文 参考訳(メタデータ) (2025-02-04T21:21:30Z) - Non-Convex Optimization in Federated Learning via Variance Reduction and Adaptive Learning [13.83895180419626]
本稿では,不均一なデータ間の非エポジロン設定に適応学習を用いたモーメントに基づく分散低減手法を提案する。
異種データによる学習率調整から,分散に関する課題を克服し,効率を損なうとともに,収束の遅さを抑えることを目的としている。
論文 参考訳(メタデータ) (2024-12-16T11:02:38Z) - Aiding Global Convergence in Federated Learning via Local Perturbation and Mutual Similarity Information [6.767885381740953]
分散最適化パラダイムとしてフェデレートラーニングが登場した。
本稿では,各クライアントが局所的に摂動勾配のステップを実行する,新しいフレームワークを提案する。
我々は,FedAvgと比較して,アルゴリズムの収束速度が30のグローバルラウンドのマージンとなることを示す。
論文 参考訳(メタデータ) (2024-10-07T23:14:05Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Heterogeneous Calibration: A post-hoc model-agnostic framework for
improved generalization [8.815439276597818]
モデル出力にポストホックモデル非依存変換を適用した不均一キャリブレーションの概念を導入し、二項分類タスクにおけるAUC性能を改善する。
単純なパターンを特徴空間の不均一なパーティションと呼び、各パーティションの完全校正がAUCを個別に最適化することを理論的に示す。
このフレームワークの理論的最適性はどんなモデルにも当てはまるが、ディープニューラルネットワーク(DNN)に注目し、このパラダイムの最も単純なインスタンス化をさまざまなオープンソースデータセットでテストする。
論文 参考訳(メタデータ) (2022-02-10T05:08:50Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Adaptive Federated Optimization [43.78438670284309]
フェデレートラーニングでは、多数のクライアントが中央サーバとコーディネートして、自身のデータを共有せずにモデルを学習する。
適応最適化手法は、このような問題に対処する際、顕著な成功を収めている。
適応型学習は,フェデレート学習の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-29T16:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。