論文の概要: Completely Heterogeneous Federated Learning
- arxiv url: http://arxiv.org/abs/2210.15865v1
- Date: Fri, 28 Oct 2022 03:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 17:44:41.665413
- Title: Completely Heterogeneous Federated Learning
- Title(参考訳): 完全不均一なフェデレーション学習
- Authors: Chang Liu, Yuwen Yang, Xun Cai, Yue Ding, Hongtao Lu
- Abstract要約: フェデレートラーニング(FL)は、クロスドメイン、異種モデル、および非i.d.ラベルのシナリオの3つの大きな課題に直面している。
FLでは,各クライアントがプライベート情報を公開しない,という難易度の高い「完全に異種」シナリオを提案する。
次に、パラメータ分離とデータフリーな知識蒸留に基づくFLフレームワークを考案し、その問題を解決する。
- 参考スコア(独自算出の注目度): 16.426770356031636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) faces three major difficulties: cross-domain,
heterogeneous models, and non-i.i.d. labels scenarios. Existing FL methods fail
to handle the above three constraints at the same time, and the level of
privacy protection needs to be lowered (e.g., the model architecture and data
category distribution can be shared). In this work, we propose the challenging
"completely heterogeneous" scenario in FL, which refers to that each client
will not expose any private information including feature space, model
architecture, and label distribution. We then devise an FL framework based on
parameter decoupling and data-free knowledge distillation to solve the problem.
Experiments show that our proposed method achieves high performance in
completely heterogeneous scenarios where other approaches fail.
- Abstract(参考訳): フェデレーション学習(fl)は、クロスドメイン、異種モデル、非i.i.d.ラベルの3つの大きな困難に直面している。
既存のFLメソッドは上記の3つの制約を同時に扱うことができず、プライバシー保護のレベルを下げる必要がある(例えば、モデルアーキテクチャとデータカテゴリの分布を共有できる)。
本稿では,各クライアントが機能空間,モデルアーキテクチャ,ラベル分布などのプライベート情報を公開しないという,flにおける「完全に異質な」シナリオを提案する。
次に、パラメータ分離とデータフリーな知識蒸留に基づくFLフレームワークを考案し、その問題を解決する。
実験により,提案手法は,他の手法が失敗する全く不均一なシナリオにおいて高い性能を達成することを示す。
関連論文リスト
- A Unified Solution to Diverse Heterogeneities in One-shot Federated Learning [14.466679488063217]
ワンショットフェデレーション学習(FL)は、サーバとクライアント間の通信を1ラウンドに制限する。
モデルとデータの不均一性の両方を効果的に扱える統一的でデータフリーなワンショットFLフレームワーク(FedHydra)を提案する。
論文 参考訳(メタデータ) (2024-10-28T15:20:52Z) - FedHPL: Efficient Heterogeneous Federated Learning with Prompt Tuning and Logit Distillation [32.305134875959226]
フェデレートラーニング(FL)は、分散クライアントが中央サーバーでモデルを協調訓練できるプライバシー保護パラダイムである。
我々はパラメータ効率の高い$textbfFed$erated Learning framework for $textbfH$eterogeneous settingsを提案する。
我々のフレームワークは最先端のFLアプローチより優れており、オーバーヘッドもトレーニングラウンドも少なくなっている。
論文 参考訳(メタデータ) (2024-05-27T15:25:32Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Survey on Heterogeneous Federated Learning [12.395474890081232]
フェデレートラーニング(FL)は、データプライバシを保護し、プライバシとセキュリティを侵害することなく、組織間のモデルを協調的にトレーニングすることで、独立したデータサイロを組み立てることを目的としている。
しかし、FLはデータ空間、統計、システム不均一性など不均一な側面に直面している。
本稿では,問題設定と学習目的に応じて,各種類の不均一性に対する不均一なFL設定の正確な分類法を提案する。
論文 参考訳(メタデータ) (2022-10-10T09:16:43Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - DistFL: Distribution-aware Federated Learning for Mobile Scenarios [14.638070213182655]
フェデレートラーニング(FL)は、モバイルクライアントのための分散型およびプライバシ保護機械学習の効果的なソリューションとして登場した。
自動かつ正確なtextbfDistrib-aware textbfFederated textbfLution を実現するための新しいフレームワークである textbfDistFL を提案する。
論文 参考訳(メタデータ) (2021-10-22T06:58:48Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。