論文の概要: Fine-tuning is Fine in Federated Learning
- arxiv url: http://arxiv.org/abs/2108.07313v1
- Date: Mon, 16 Aug 2021 18:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 13:24:22.971341
- Title: Fine-tuning is Fine in Federated Learning
- Title(参考訳): ファインチューニングはフェデレーションラーニングに最適
- Authors: Gary Cheng, Karan Chadha, John Duchi
- Abstract要約: フレームワークにおけるフェデレーション学習アルゴリズムとその変種の性能について検討する。
このマルチクレーターアプローチは、フェデレーション学習の高次元、多次元的な性質を自然にモデル化する。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the performance of federated learning algorithms and their variants
in an asymptotic framework. Our starting point is the formulation of federated
learning as a multi-criterion objective, where the goal is to minimize each
client's loss using information from all of the clients. We propose a linear
regression model, where, for a given client, we theoretically compare the
performance of various algorithms in the high-dimensional asymptotic limit.
This asymptotic multi-criterion approach naturally models the high-dimensional,
many-device nature of federated learning and suggests that personalization is
central to federated learning. Our theory suggests that Fine-tuned Federated
Averaging (FTFA), i.e., Federated Averaging followed by local training, and the
ridge regularized variant Ridge-tuned Federated Averaging (RTFA) are
competitive with more sophisticated meta-learning and proximal-regularized
approaches. In addition to being conceptually simpler, FTFA and RTFA are
computationally more efficient than its competitors. We corroborate our
theoretical claims with extensive experiments on federated versions of the
EMNIST, CIFAR-100, Shakespeare, and Stack Overflow datasets.
- Abstract(参考訳): 本研究では,フェデレーション学習アルゴリズムとその変種の性能を漸近的枠組みで検討する。
私たちの出発点は、複数の批判目標としての連合学習の定式化であり、クライアントのすべての情報を使用して、各クライアントの損失を最小限に抑えることを目標としています。
そこで、あるクライアントに対して、理論的に様々なアルゴリズムの性能を高次元漸近極限で比較する線形回帰モデルを提案する。
この漸近的マルチクリエーションアプローチは、自然にフェデレーション学習の高次元で多デバイスな性質をモデル化し、パーソナライズがフェデレーション学習の中心であることを示唆している。
本理論は,federated averaging (ftfa) および ridge regularized variant ridge-tuned federated averaging (rtfa) が,より洗練されたメタラーニングや近位正規化アプローチと競合していることを示唆している。
概念的にシンプルであることに加えて、FTFAとRTFAは競合製品よりも計算効率が良い。
我々は、EMNIST、CIFAR-100、シェークスピア、Stack Overflowデータセットのフェデレーションバージョンに関する広範な実験で、理論的な主張を裏付ける。
関連論文リスト
- Aiding Global Convergence in Federated Learning via Local Perturbation and Mutual Similarity Information [6.767885381740953]
分散最適化パラダイムとしてフェデレートラーニングが登場した。
本稿では,各クライアントが局所的に摂動勾配のステップを実行する,新しいフレームワークを提案する。
我々は,FedAvgと比較して,アルゴリズムの収束速度が30のグローバルラウンドのマージンとなることを示す。
論文 参考訳(メタデータ) (2024-10-07T23:14:05Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - When Computing Power Network Meets Distributed Machine Learning: An
Efficient Federated Split Learning Framework [6.871107511111629]
CPN-FedSLはComputer Power Network (CPN)上のFederated Split Learning (FedSL)フレームワークである。
私たちは、基本的な設定と学習特性(例えば、レイテンシ、フロー、収束)をキャプチャする専用のモデルを構築します。
論文 参考訳(メタデータ) (2023-05-22T12:36:52Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Improving Federated Relational Data Modeling via Basis Alignment and
Weight Penalty [18.096788806121754]
近年,フェデレートラーニング(FL)が注目されている。
知識グラフ(KG)上でのフェデレーションモデリングを行うグラフニューラルネットワークアルゴリズムの修正版を提案する。
我々は,1) クライアント上でのパーソナライズのための最適輸送(OT)と,2) 収束を高速化するための重み制約を備えた新しい最適化アルゴリズムであるFedAlignを提案する。
実験の結果,提案手法はFedAVGやFedProxといった最先端のFL法よりも優れており,収束性が高いことがわかった。
論文 参考訳(メタデータ) (2020-11-23T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。