論文の概要: FedKD: Communication Efficient Federated Learning via Knowledge
Distillation
- arxiv url: http://arxiv.org/abs/2108.13323v1
- Date: Mon, 30 Aug 2021 15:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 16:52:48.351146
- Title: FedKD: Communication Efficient Federated Learning via Knowledge
Distillation
- Title(参考訳): FedKD:知識蒸留による効果的なフェデレーション学習
- Authors: Chuhan Wu, Fangzhao Wu, Ruixuan Liu, Lingjuan Lyu, Yongfeng Huang,
Xing Xie
- Abstract要約: フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
- 参考スコア(独自算出の注目度): 56.886414139084216
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Federated learning is widely used to learn intelligent models from
decentralized data. In federated learning, clients need to communicate their
local model updates in each iteration of model learning. However, model updates
are large in size if the model contains numerous parameters, and there usually
needs many rounds of communication until model converges. Thus, the
communication cost in federated learning can be quite heavy. In this paper, we
propose a communication efficient federated learning method based on knowledge
distillation. Instead of directly communicating the large models between
clients and server, we propose an adaptive mutual distillation framework to
reciprocally learn a student and a teacher model on each client, where only the
student model is shared by different clients and updated collaboratively to
reduce the communication cost. Both the teacher and student on each client are
learned on its local data and the knowledge distilled from each other, where
their distillation intensities are controlled by their prediction quality. To
further reduce the communication cost, we propose a dynamic gradient
approximation method based on singular value decomposition to approximate the
exchanged gradients with dynamic precision. Extensive experiments on benchmark
datasets in different tasks show that our approach can effectively reduce the
communication cost and achieve competitive results.
- Abstract(参考訳): 連合学習は分散データからインテリジェントなモデルを学ぶために広く使われている。
連合学習では、クライアントはモデル学習の各イテレーションでローカルモデルのアップデートを伝える必要がある。
しかし、モデルが多数のパラメータを含む場合、モデル更新は大きなサイズであり、モデルが収束するまでは、通常多くの通信ラウンドが必要である。
したがって、連合学習におけるコミュニケーションコストは非常に重い。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
クライアントとサーバ間の大規模モデルを直接通信する代わりに,各クライアント上で学生と教師のモデルを相互に学習する適応的相互蒸留フレームワークを提案し,学生モデルのみが異なるクライアントで共有され,コミュニケーションコストを削減するために協調的に更新される。
各クライアント上の教師と生徒は、各クライアントのローカルデータと相互に蒸留された知識から学び、その蒸留強度は、その予測品質によって制御される。
通信コストをさらに削減するため、特異値分解に基づく動的勾配近似法を提案し、交換された勾配を動的精度で近似する。
異なるタスクにおけるベンチマークデータセットの大規模な実験により、我々の手法は通信コストを効果的に削減し、競争力のある結果が得られることを示した。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - Federated Learning of Neural ODE Models with Different Iteration Counts [0.9444784653236158]
フェデレーテッド・ラーニング(Federated Learning)とは、クライアントが自身のデータをローカルにトレーニングしてサーバにアップロードする分散機械学習アプローチである。
本稿では,ニューラルネットワークをベースとしたモデルを用いてフェデレート学習を行う。
我々は,CIFAR-10データセットを用いたベースラインResNetモデルと比較して,通信サイズを最大92.4%削減できることを示す。
論文 参考訳(メタデータ) (2022-08-19T17:57:32Z) - FedLite: A Scalable Approach for Federated Learning on
Resource-constrained Clients [41.623518032533035]
スプリットラーニングでは、モデルのごく一部だけがクライアントに格納され、トレーニングされ、残りの部分はサーバに留まる。
本稿では,勾配補正法を伴って,新たなクラスタリング方式を用いて付加的な通信を圧縮することにより,この問題に対処する。
論文 参考訳(メタデータ) (2022-01-28T00:09:53Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。