論文の概要: FedSOL: Stabilized Orthogonal Learning in Federated Learning
- arxiv url: http://arxiv.org/abs/2308.12532v5
- Date: Wed, 28 Feb 2024 06:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 12:04:49.144490
- Title: FedSOL: Stabilized Orthogonal Learning in Federated Learning
- Title(参考訳): FedSOL: フェデレートラーニングにおける直交学習の安定化
- Authors: Gihun Lee, Minchan Jeong, Sangmook Kim, Jaehoon Oh, Se-Young Yun
- Abstract要約: フェデレートラーニング(FL)は、個々のクライアントからローカルに訓練されたモデルを集約し、グローバルモデルを構築する。
FLは、クライアントが不均一なデータ分散を持つ場合、大きなパフォーマンス劣化に悩まされることが多い。
本稿では,2つの相反する目標のバランスをとるために,FedSOL(Federated Stabilized Orthogonal Learning)を提案する。
- 参考スコア(独自算出の注目度): 29.273558804097075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning(FL) aggregates locally trained models from individual
clients to construct a global model. While FL enables learning a model with
data privacy, it often suffers from significant performance degradation when
clients have heterogeneous data distributions. This data heterogeneity causes
the model to forget the global knowledge acquired from previously sampled
clients after being trained on local datasets. Although the introduction of
proximal objectives in local updates helps to preserve global knowledge, it can
also hinder local learning by interfering with local objectives. To address
this problem, we propose a novel method, Federated Stabilized Orthogonal
Learning(FedSOL), which adopts an orthogonal learning strategy to balance the
two conflicting objectives. FedSOL is designed to identify gradients of local
objectives that are inherently orthogonal to directions affecting the proximal
objective. Specifically, FedSOL targets parameter regions where learning on the
local objective is minimally influenced by proximal weight perturbations. Our
experiments demonstrate that FedSOL consistently achieves state-of-the-art
performance across various scenarios.
- Abstract(参考訳): フェデレーション学習(fl)は、グローバルモデルを構築するために個々のクライアントからローカルにトレーニングされたモデルを集約する。
flはデータプライバシでモデルを学ぶことができるが、クライアントが異種データ分散を持つ場合、パフォーマンスが著しく低下する。
このデータの均一性により、モデルは、ローカルデータセットでトレーニングされた後に、以前にサンプリングされたクライアントから得られたグローバルな知識を忘れることになる。
地域更新における近位目標の導入は、グローバル知識の保存に役立つが、地域目標との干渉によって局所学習を阻害することもある。
そこで本研究では,2つの相反する目標のバランスをとるために,直交学習戦略を採用するフェデレート安定化直交学習(federated stabilized orthogonal learning, fedsol)を提案する。
FedSOLは、近位目的に影響を及ぼす方向に対して本質的に直交する局所目的の勾配を特定するように設計されている。
特に、FedSOLは、局所的な目的についての学習が近量摂動の影響を最小限に抑えるパラメータ領域をターゲットにしている。
実験の結果,FedSOLは様々なシナリオで常に最先端のパフォーマンスを実現していることがわかった。
関連論文リスト
- Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedALA: Adaptive Local Aggregation for Personalized Federated Learning [33.000160383079496]
連合学習(FL)における鍵となる課題は、各クライアントにおけるグローバルモデルの一般化を損なう統計的不均一性である。
本稿では,FedALA(Adaptive Local Aggregation)を用いたFedALA(Federated Learning with Adaptive Local Aggregation)を提案する。
FedALAの有効性を評価するため、コンピュータビジョンと自然言語処理領域における5つのベンチマークデータセットを用いて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-02T14:24:53Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Personalized Federated Learning with Hidden Information on Personalized
Prior [18.8426865970643]
本稿では,Bregmanの発散正規化を用いたモデル化のためのフレームワークであるpFedBreDを提案する。
実験の結果,提案手法は複数の公開ベンチマークにおいて他のPFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-11-19T12:45:19Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Preservation of the Global Knowledge by Not-True Self Knowledge
Distillation in Federated Learning [8.474470736998136]
フェデレートラーニング(FL)では、強力なグローバルモデルが、クライアントのローカルにトレーニングされたモデルを集約することによって、協調的に学習される。
偏りのある地域分布への適応は、その特徴をグローバルな分布にシフトさせ、グローバルな知識を忘れる結果をもたらすことを観察する。
本稿では, ローカルデータに対するグローバルな知識を活用した, 簡便かつ効果的なフェデレートローカル自己蒸留(FedLSD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T11:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。