論文の概要: Enhancing Heterogeneous Federated Learning with Knowledge Extraction and
Multi-Model Fusion
- arxiv url: http://arxiv.org/abs/2208.07978v2
- Date: Sat, 30 Sep 2023 04:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 21:19:34.042374
- Title: Enhancing Heterogeneous Federated Learning with Knowledge Extraction and
Multi-Model Fusion
- Title(参考訳): 知識抽出と多モデル融合によるヘテロジニアス連合学習の強化
- Authors: Duy Phuong Nguyen, Sixing Yu, J. Pablo Mu\~noz, Ali Jannesari
- Abstract要約: 本稿では,エッジデバイス上での機械学習モデルをセンシティブなデータにアクセスせずにトレーニングする,新しいフェデレーション学習(FL)手法を提案する。
本稿では,エッジモデルから局所的な知識を集約し,それを知識蒸留を通じて堅牢なグローバルな知識に蒸留する資源対応FL法を提案する。
提案手法は,既存のFLアルゴリズムと比較して,異種データとモデルにおける通信コストと性能を向上する。
- 参考スコア(独自算出の注目度): 9.106417025722756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concerned with user data privacy, this paper presents a new federated
learning (FL) method that trains machine learning models on edge devices
without accessing sensitive data. Traditional FL methods, although
privacy-protective, fail to manage model heterogeneity and incur high
communication costs due to their reliance on aggregation methods. To address
this limitation, we propose a resource-aware FL method that aggregates local
knowledge from edge models and distills it into robust global knowledge through
knowledge distillation. This method allows efficient multi-model knowledge
fusion and the deployment of resource-aware models while preserving model
heterogeneity. Our method improves communication cost and performance in
heterogeneous data and models compared to existing FL algorithms. Notably, it
reduces the communication cost of ResNet-32 by up to 50\% and VGG-11 by up to
10$\times$ while delivering superior performance.
- Abstract(参考訳): 本稿では,ユーザデータのプライバシに関して,機密データにアクセスせずにエッジデバイス上で機械学習モデルをトレーニングする新しいフェデレーション学習(FL)手法を提案する。
従来のfl法は、プライバシ保護ではあるが、モデルの不均一性を管理しず、集約メソッドに依存するため、高い通信コストを発生させる。
この制限に対処するために,エッジモデルから局所知識を集約し,知識蒸留を通じてロバストなグローバル知識に蒸留する資源認識型fl法を提案する。
この方法は,モデルの不均一性を保ちながら,効率的なマルチモデル知識融合と資源認識モデルの展開を可能にする。
本手法は,既存のFLアルゴリズムと比較して,異種データやモデルにおける通信コストと性能を改善する。
特に、ResNet-32の通信コストを最大50\%、VGG-11を最大10$\times$まで削減し、優れたパフォーマンスを提供する。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Data-Free Federated Class Incremental Learning with Diffusion-Based Generative Memory [27.651921957220004]
拡散型生成メモリ(DFedDGM)を用いた新しいデータフリーフェデレーションクラスインクリメンタルラーニングフレームワークを提案する。
FLにおける一般の非IID問題を軽減するために拡散モデルの訓練を支援するために,新しいバランスの取れたサンプルを設計する。
また、情報理論の観点からエントロピーに基づくサンプルフィルタリング手法を導入し、生成サンプルの品質を向上させる。
論文 参考訳(メタデータ) (2024-05-22T20:59:18Z) - Adaptive Hybrid Model Pruning in Federated Learning through Loss Exploration [17.589308358508863]
我々は、フェデレートされた損失探索フェーズを利用して、適応型ハイブリッドプルーニングを駆動する革新的アプローチであるAutoFLIPを紹介する。
我々は,AutoFLIPがグローバルコンバージェンスを効率的に加速するだけでなく,従来の手法に比べて精度と堅牢性も向上することを示した。
論文 参考訳(メタデータ) (2024-05-16T17:27:41Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - pFedES: Model Heterogeneous Personalized Federated Learning with Feature
Extractor Sharing [19.403843478569303]
特徴抽出器の共有に基づくモデル・ヘテロジニアス・パーソナライズされたフェデレーション学習手法を提案する。
これは、各クライアントの異種局所モデルに小さな同種特徴抽出器を組み込む。
テスト精度は1.61%向上し、通信コストと計算コストをそれぞれ99.6%と82.9%削減した。
論文 参考訳(メタデータ) (2023-11-12T15:43:39Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Data-Free Knowledge Distillation for Heterogeneous Federated Learning [31.364314540525218]
Federated Learning(FL)は、グローバルサーバがデータにアクセスせずに、ローカルユーザのモデルパラメータを反復的に平均する分散機械学習パラダイムである。
知識蒸留(Knowledge Distillation)は、異種ユーザからの集約された知識を使用してサーバモデルを精錬することによって、この問題に対処するために最近登場した。
異種FLに対処するデータフリーな知識蒸留手法を提案し,サーバはユーザ情報をデータフリーでアンサンブルするための軽量なジェネレータを学習する。
論文 参考訳(メタデータ) (2021-05-20T22:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。