論文の概要: Federated Virtual Learning on Heterogeneous Data with Local-global
Distillation
- arxiv url: http://arxiv.org/abs/2303.02278v1
- Date: Sat, 4 Mar 2023 00:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:32:12.407550
- Title: Federated Virtual Learning on Heterogeneous Data with Local-global
Distillation
- Title(参考訳): 局所グローバル蒸留による不均一データのフェデレーション仮想学習
- Authors: Chun-Yin Huang, Ruinan Jin, Can Zhao, Daguang Xu, and Xiaoxiao Li
- Abstract要約: 局所Global Distillation (FEDLGD) を用いた不均一データに対するフェデレーション仮想学習法を提案する。
FEDLGDは、局所蒸留とグローバル蒸留を組み合わせた、より小さな合成データセットを使用してFLを訓練する。
提案手法は, 蒸留仮想データ量が非常に少ない設定条件下で, 最先端の異種FLアルゴリズムより優れる。
- 参考スコア(独自算出の注目度): 17.998623216905496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite Federated Learning (FL)'s trend for learning machine learning models
in a distributed manner, it is susceptible to performance drops when training
on heterogeneous data. Recently, dataset distillation has been explored in
order to improve the efficiency and scalability of FL by creating a smaller,
synthetic dataset that retains the performance of a model trained on the local
private datasets. We discover that using distilled local datasets can amplify
the heterogeneity issue in FL. To address this, we propose a new method, called
Federated Virtual Learning on Heterogeneous Data with Local-Global Distillation
(FEDLGD), which trains FL using a smaller synthetic dataset (referred as
virtual data) created through a combination of local and global distillation.
Specifically, to handle synchronization and class imbalance, we propose
iterative distribution matching to allow clients to have the same amount of
balanced local virtual data; to harmonize the domain shifts, we use federated
gradient matching to distill global virtual data that are shared with clients
without hindering data privacy to rectify heterogeneous local training via
enforcing local-global feature similarity. We experiment on both benchmark and
real-world datasets that contain heterogeneous data from different sources. Our
method outperforms state-of-the-art heterogeneous FL algorithms under the
setting with a very limited amount of distilled virtual data.
- Abstract(参考訳): 分散学習モデルにおけるフェデレーション学習(fl)のトレンドにもかかわらず、ヘテロジニアスデータでのトレーニングでは、パフォーマンス低下の影響を受けやすい。
近年,ローカルプライベートデータセットでトレーニングされたモデルのパフォーマンスを維持する,より小さな合成データセットを作成することにより,flの効率とスケーラビリティを向上させるためにデータセット蒸留が研究されている。
蒸留したローカルデータセットを使用することで,flの異種性問題の拡大が期待できる。
そこで本研究では,局所蒸留と大域蒸留の組み合わせにより作成した,より小さな合成データセット(仮想データ)を用いてflを訓練する,局所大域蒸留を用いたヘテロジニアスデータ上でのフェデレート・バーチャル・ラーニング(fedlgd)という新しい手法を提案する。
具体的には、同期とクラス不均衡を扱うために、クライアントが同じバランスの取れたローカルな仮想データを持つように反復的分布マッチングを提案し、ドメインシフトを調和させるために、フェデレートしたグラデーションマッチングを使用してクライアントと共有されるグローバルな仮想データを抽出する。
我々は、異なるソースからの異種データを含むベンチマークと実世界のデータセットについて実験する。
提案手法は, 蒸留仮想データ量が非常に少ない設定条件下で, 最先端の異種FLアルゴリズムより優れる。
関連論文リスト
- Federated Impression for Learning with Distributed Heterogeneous Data [19.50235109938016]
フェデレートラーニング(FL)は、データを共有することなく、クライアント間で分散データセットから学習できるパラダイムを提供する。
FLでは、データ収集プロトコルや患者人口の多様さにより、異なる保健所のデータに準最適収束が一般的である。
我々は,グローバル情報を表す合成データをフェデレーションとして復元することで,破滅的な忘れを緩和するFedImpresを提案する。
論文 参考訳(メタデータ) (2024-09-11T15:37:52Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Unlocking the Potential of Federated Learning: The Symphony of Dataset
Distillation via Deep Generative Latents [43.282328554697564]
本稿ではサーバ側のFLデータセット蒸留フレームワークを提案する。
従来の手法とは異なり,サーバは事前学習した深層生成モデルから事前知識を活用できる。
我々のフレームワークは、サーバが複数の異種データ分散を訓練するのではなく、マルチモーダル分布を訓練するため、ベースラインよりも早く収束する。
論文 参考訳(メタデータ) (2023-12-03T23:30:48Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - Virtual Homogeneity Learning: Defending against Data Heterogeneity in
Federated Learning [34.97057620481504]
本稿では,VHL(Virtual homogeneity Learning)と呼ばれる新しい手法を提案する。
VHLは2つの条件を満たすために作られた仮想同質データセットで連合学習を行う。
実験により, VHLは, 収束速度と一般化性能を大幅に向上したフェデレーション学習を実現することを実証した。
論文 参考訳(メタデータ) (2022-06-06T10:02:21Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。