論文の概要: HierarchyFL: Heterogeneous Federated Learning via Hierarchical
Self-Distillation
- arxiv url: http://arxiv.org/abs/2212.02006v1
- Date: Mon, 5 Dec 2022 03:32:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:09:18.915681
- Title: HierarchyFL: Heterogeneous Federated Learning via Hierarchical
Self-Distillation
- Title(参考訳): hierarchyfl:階層的自己蒸留によるヘテロジニアス連合学習
- Authors: Jun Xia, Yi Zhang, Zhihao Yue, Ming Hu, Xian Wei, Mingsong Chen
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護の分散機械学習パラダイムとして認識されている。
FLは、AIoTデバイスのモデル不均一性により、モデル不正確性と緩やかな収束に悩まされる。
我々は、少数の公開データを効率よくスケーラブルな知識に利用する、HierarchyFLという効率的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.409497615805797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has been recognized as a privacy-preserving
distributed machine learning paradigm that enables knowledge sharing among
various heterogeneous artificial intelligence (AIoT) devices through
centralized global model aggregation. FL suffers from model inaccuracy and slow
convergence due to the model heterogeneity of the AIoT devices involved.
Although various existing methods try to solve the bottleneck of the model
heterogeneity problem, most of them improve the accuracy of heterogeneous
models in a coarse-grained manner, which makes it still a great challenge to
deploy large-scale AIoT devices. To alleviate the negative impact of this
problem and take full advantage of the diversity of each heterogeneous model,
we propose an efficient framework named HierarchyFL, which uses a small amount
of public data for efficient and scalable knowledge across a variety of
differently structured models. By using self-distillation and our proposed
ensemble library, each hierarchical model can intelligently learn from each
other on cloud servers. Experimental results on various well-known datasets
show that HierarchyFL can not only maximize the knowledge sharing among various
heterogeneous models in large-scale AIoT systems, but also greatly improve the
model performance of each involved heterogeneous AIoT device.
- Abstract(参考訳): フェデレートラーニング(FL)は、多種多様な異種人工知能(AIoT)デバイス間の知識共有を可能にする、プライバシー保護分散機械学習パラダイムとして認識されている。
FLは、AIoTデバイスのモデル不均一性により、モデル不正確性と緩やかな収束に悩まされる。
既存手法は,モデルの不均一性のボトルネックを解消しようとするが,そのほとんどは粗い粒度で異種モデルの精度を向上させるため,大規模なAIoTデバイスをデプロイすることは依然として大きな課題である。
この問題による悪影響を緩和し、各異種モデルの多様性を最大限に活用するために、様々な異なる構造化モデルにまたがる効率的かつスケーラブルな知識のために、少量の公開データを使用する、archicalflという効率的なフレームワークを提案する。
自己蒸留と提案するアンサンブルライブラリを用いることで,各階層モデルはクラウドサーバ上でインテリジェントに相互学習することができる。
実験結果から,HierarchyFLは大規模AIoTシステムにおける多種多様なモデル間の知識共有を最大化できるだけでなく,多種多様なAIoTデバイスのモデル性能を大幅に向上させることができることがわかった。
関連論文リスト
- A Unified Solution to Diverse Heterogeneities in One-shot Federated Learning [14.466679488063217]
ワンショットフェデレーション学習(FL)は、サーバとクライアント間の通信を1ラウンドに制限する。
モデルとデータの不均一性の両方を効果的に扱える統一的でデータフリーなワンショットFLフレームワーク(FedHydra)を提案する。
論文 参考訳(メタデータ) (2024-10-28T15:20:52Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Federated Learning for Data and Model Heterogeneity in Medical Imaging [19.0931609571649]
Federated Learning(FL)は、複数のクライアントがデータを互いに中央サーバと共有することなく、協調学習に参加する、進化する機械学習手法である。
病院や産業などの現実世界のアプリケーションでは、FLはデータ不均一性とモデル不均一性の課題に対処する。
このような問題を解決するためにMDH-FL(Exploiting Model and Data Heterogeneity in FL)を提案する。
論文 参考訳(メタデータ) (2023-07-31T21:08:45Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - FedHM: Efficient Federated Learning for Heterogeneous Models via
Low-rank Factorization [16.704006420306353]
スケーラブルなフェデレート学習フレームワークは、異なる計算能力と通信能力を備えた異種クライアントに対処する必要がある。
本稿では,不均一な低ランクモデルをクライアントに分散し,それらをグローバルなフルランクモデルに集約する,新しいフェデレーションモデル圧縮フレームワークであるFedHMを提案する。
我々のソリューションは、計算複雑性の異なる異種局所モデルの訓練を可能にし、単一の大域的モデルを集約する。
論文 参考訳(メタデータ) (2021-11-29T16:11:09Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。