論文の概要: Federated Learning of Large Models at the Edge via Principal Sub-Model
Training
- arxiv url: http://arxiv.org/abs/2208.13141v1
- Date: Sun, 28 Aug 2022 05:17:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:08:52.419682
- Title: Federated Learning of Large Models at the Edge via Principal Sub-Model
Training
- Title(参考訳): 主要サブモデルトレーニングによるエッジにおける大規模モデルのフェデレーション学習
- Authors: Yue Niu, Saurav Prakash, Souvik Kundu, Sunwoo Lee, Salman Avestimehr
- Abstract要約: エッジユーザの限られた計算能力と通信能力は、フェデレート学習のボトルネックを生み出します。
本稿では,PriSM(Principal Sub-Model)トレーニング手法を提案する。
PriSMは既存の代替製品と比較して最大10%パフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 13.960233027218028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited compute and communication capabilities of edge users create a
significant bottleneck for federated learning (FL) of large models. We consider
a realistic, but much less explored, cross-device FL setting in which no client
has the capacity to train a full large model nor is willing to share any
intermediate activations with the server. To this end, we present Principal
Sub-Model (PriSM) training methodology, which leverages models low-rank
structure and kernel orthogonality to train sub-models in the orthogonal kernel
space. More specifically, by applying singular value decomposition (SVD) to
original kernels in the server model, PriSM first obtains a set of principal
orthogonal kernels in which each one is weighed by its singular value.
Thereafter, PriSM utilizes our novel sampling strategy that selects different
subsets of the principal kernels independently to create sub-models for
clients. Importantly, a kernel with a large singular value is assigned with a
high sampling probability. Thus, each sub-model is a low-rank approximation of
the full large model, and all clients together achieve the near full-model
training. Our extensive evaluations on multiple datasets in various
resource-constrained settings show that PriSM can yield an improved performance
of up to 10% compared to existing alternatives, with only around 20% sub-model
training.
- Abstract(参考訳): エッジユーザの計算能力と通信能力の制限は、大規模モデルのフェデレーション学習(fl)に重大なボトルネックをもたらします。
私たちは、完全な大規模モデルをトレーニングする能力を持つクライアントや、中間的なアクティベーションをサーバと共有しないクライアントがいない、現実的な、しかしより探索の少ないクロスデバイスfl設定を考えています。
そこで本研究では,低ランク構造モデルとカーネル直交性モデルを用いて直交核空間におけるサブモデルを学習するプリンシパル・サブモデル(prism)トレーニング手法を提案する。
より具体的には、サーバモデルにおける元のカーネルに特異値分解(SVD)を適用することにより、Prismはまず、各カーネルがその特異値によって測定される主直交カーネルの集合を得る。
その後、prismは、主カーネルの異なるサブセットを独立に選択してクライアントのサブモデルを作成する新しいサンプリング戦略を利用する。
重要なことに、大きな特異値のカーネルは高いサンプリング確率で割り当てられる。
このように、各サブモデルは全大モデルの低ランク近似であり、全てのクライアントがほぼフルモデルトレーニングを達成する。
各種リソース制約設定における複数のデータセットに対する広範な評価は、Primが既存の代替モデルと比較して最大10%パフォーマンスを向上できることを示している。
関連論文リスト
- Personalized Hierarchical Split Federated Learning in Wireless Networks [24.664469755746463]
本稿では、パーソナライズ性能の向上を目的とした、パーソナライズされた階層分割型フェデレーション学習(PHSFL)アルゴリズムを提案する。
まず、モデル分割と階層モデル集約がグローバルモデルに与える影響を理解するために、広範囲な理論的解析を行う。
グローバルモデルがトレーニングされると、各クライアントを微調整してパーソナライズされたモデルを取得します。
論文 参考訳(メタデータ) (2024-11-09T02:41:53Z) - Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - Towards Client Driven Federated Learning [7.528642177161784]
私たちは、クライアントを駆動する新しいFLフレームワークであるクライアント駆動フェデレートラーニング(CDFL:Client-Driven Federated Learning)を紹介します。
CDFLでは、各クライアントは、ローカルにトレーニングされたモデルをサーバにアップロードし、ローカルタスクに合わせてカスタマイズされたモデルを受け取ることで、独立して非同期にモデルを更新する。
論文 参考訳(メタデータ) (2024-05-24T10:17:49Z) - PFSL: Personalized & Fair Split Learning with Data & Label Privacy for
thin clients [0.5144809478361603]
PFSLは分散分割学習の新しいフレームワークであり、多数のシンクライアントが並列にトランスファー学習を行う。
クライアントモデルのパーソナライズを行うための軽量なステップを実装し,それぞれのデータ分布に対して高いパフォーマンスを実現する。
我々の精度は現在のアルゴリズムSLをはるかに上回り、いくつかの実生活ベンチマークにおける集中学習に非常に近い。
論文 参考訳(メタデータ) (2023-03-19T10:38:29Z) - Complement Sparsification: Low-Overhead Model Pruning for Federated
Learning [2.0428960719376166]
フェデレートラーニング(Federated Learning, FL)は、プライバシに保護された分散ディープラーニングパラダイムであり、かなりのコミュニケーションと計算作業を伴う。
既存のモデルプルーニング/スパーシフィケーションソリューションは、サーバとクライアント間の双方向通信のオーバーヘッドが低いという要求を満たすことができません。
我々は,サーバとクライアントで行う補完的かつ協調的なプルーニングを通じて,これらの要求を満たすプルーニング機構であるComplement Sparsification (CS)を提案する。
論文 参考訳(メタデータ) (2023-03-10T23:07:02Z) - SplitGP: Achieving Both Generalization and Personalization in Federated
Learning [31.105681433459285]
SplitGPは、リソース制約のあるクライアント間の効率的な推論のために、一般化とパーソナライズ機能をキャプチャする。
我々はSplitGPの収束挙動を解析的に解析し、全てのクライアントモデルが定常点に接近していることを明らかにする。
実験結果から, SplitGPは, 種々の分布外サンプルに対して, 推定時間, 試験精度において, 既存のベースラインよりも高い性能を示した。
論文 参考訳(メタデータ) (2022-12-16T08:37:24Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。