論文の概要: Handling Data Heterogeneity in Federated Learning via Knowledge Fusion
- arxiv url: http://arxiv.org/abs/2207.11447v1
- Date: Sat, 23 Jul 2022 07:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:04:33.417303
- Title: Handling Data Heterogeneity in Federated Learning via Knowledge Fusion
- Title(参考訳): 知識融合による連合学習におけるデータ不均一性処理
- Authors: Xu Zhou, Xinyu Lei, Cong Yang, Yichun Shi, Xiao Zhang, Jingwen Shi
- Abstract要約: フェデレートラーニング(FL)は、中央サーバの助けを借りて、複数のクライアントにまたがるグローバル機械学習モデルの分散トレーニングをサポートする。
FLはますます人気があるが、異なるクライアント間のデータの異質性は、クライアントモデルのドリフト問題につながる。
本稿では,グローバルな知識融合方式によるフェデレーション学習を設計する。
- 参考スコア(独自算出の注目度): 19.57498200486209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) supports distributed training of a global machine
learning model across multiple clients with the help from a central server. The
local dataset held by each client is never exchanged in FL, so the local
dataset privacy is protected. Although FL is increasingly popular, data
heterogeneity across different clients leads to the client model drift issue
and results in model performance degradation and poor model fairness. To
address the issue, we design Federated learning with global-local Knowledge
Fusion (FedKF) scheme in this paper. The key idea in FedKF is to let the server
return the global knowledge to be fused with the local knowledge in each
training round so that the local model can be regularized towards the global
optima. Thus, the client model drift issue can be mitigated. In FedKF, we first
propose the active-inactive model aggregation technique that supports a precise
global knowledge representation. Then, we propose a data-free knowledge
distillation (KD) approach to facilitate the KD from the global model to the
local model while the local model can still learn the local knowledge (embedded
in the local dataset) simultaneously, thereby realizing the global-local
knowledge fusion process. The theoretical analysis and intensive experiments
demonstrate that FedKF achieves high model performance, high fairness, and
privacy-preserving simultaneously. The project source codes will be released on
GitHub after the paper review.
- Abstract(参考訳): federated learning(fl)は、中央サーバの助けを借りて、複数のクライアントにまたがるグローバル機械学習モデルの分散トレーニングをサポートする。
各クライアントが保持するローカルデータセットはflで交換されないため、ローカルデータセットのプライバシは保護される。
FLはますます人気があるが、異なるクライアント間のデータの異質性は、クライアントモデルのドリフト問題を引き起こし、モデルの性能劣化とモデルフェアネスの低下をもたらす。
本稿では,この問題を解決するために,グローバルローカル知識融合(fedkf)方式によるフェデレート学習をデザインする。
FedKFのキーとなるアイデアは、サーバがグローバルな知識を各トレーニングラウンドのローカルな知識と融合させ、ローカルモデルをグローバルなオプティマに向けて規則化できるようにすることである。
これにより、クライアントモデルのドリフト問題を緩和することができる。
FedKFでは、まず、正確なグローバル知識表現をサポートするアクティブ非アクティブモデル集約手法を提案する。
そこで本研究では,KD をグローバルモデルからローカルモデルへ促進するデータフリー知識蒸留 (KD) 手法を提案し,局所モデルが局所的知識(局所データセットに埋め込まれた)を同時に学習し,グローバルな局所的知識融合プロセスを実現する。
理論解析と集中的な実験により、FedKFは高いモデル性能、高い公正性、およびプライバシー保護を同時に達成することを示した。
プロジェクトのソースコードは、論文レビューの後にGitHubでリリースされる。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - FedCME: Client Matching and Classifier Exchanging to Handle Data
Heterogeneity in Federated Learning [5.21877373352943]
クライアント間のデータの均一性は、フェデレートラーニング(FL)における重要な課題の1つです。
クライアントマッチングと分類器交換によりFedCMEという新しいFLフレームワークを提案する。
実験結果から,FedCMEはFedAvg,FedProx,MOON,FedRSよりも高い性能を示した。
論文 参考訳(メタデータ) (2023-07-17T15:40:45Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - Knowledge-Aware Federated Active Learning with Non-IID Data [75.98707107158175]
本稿では,アノテーション予算に制限のあるグローバルモデルを効率的に学習するための,連合型アクティブラーニングパラダイムを提案する。
フェデレートされたアクティブラーニングが直面する主な課題は、サーバ上のグローバルモデルのアクティブサンプリング目標と、ローカルクライアントのアクティブサンプリング目標とのミスマッチである。
本稿では,KSAS (Knowledge-Aware Federated Active Learning) とKCFU (Knowledge-Compensatory Federated Update) を組み合わせた,知識対応型アクティブ・ラーニング(KAFAL)を提案する。
論文 参考訳(メタデータ) (2022-11-24T13:08:43Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Global Knowledge Distillation in Federated Learning [3.7311680121118345]
本稿では,従来のグローバルモデルから知識を学習し,局所バイアス学習問題に対処する,新たなグローバル知識蒸留法であるFedGKDを提案する。
提案手法の有効性を示すため,各種CVデータセット(CIFAR-10/100)と設定(非i.dデータ)について広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-30T18:14:24Z) - Preservation of the Global Knowledge by Not-True Self Knowledge
Distillation in Federated Learning [8.474470736998136]
フェデレートラーニング(FL)では、強力なグローバルモデルが、クライアントのローカルにトレーニングされたモデルを集約することによって、協調的に学習される。
偏りのある地域分布への適応は、その特徴をグローバルな分布にシフトさせ、グローバルな知識を忘れる結果をもたらすことを観察する。
本稿では, ローカルデータに対するグローバルな知識を活用した, 簡便かつ効果的なフェデレートローカル自己蒸留(FedLSD)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T11:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。