論文の概要: UVeQFed: Universal Vector Quantization for Federated Learning
- arxiv url: http://arxiv.org/abs/2006.03262v3
- Date: Mon, 14 Dec 2020 10:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 03:25:57.626349
- Title: UVeQFed: Universal Vector Quantization for Federated Learning
- Title(参考訳): UVeQFed: フェデレートラーニングのためのユニバーサルベクトル量子化
- Authors: Nir Shlezinger, Mingzhe Chen, Yonina C. Eldar, H. Vincent Poor, and
Shuguang Cui
- Abstract要約: フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。その後、サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
普遍ベクトル量子化法をFLと組み合わせることで、訓練されたモデルの圧縮が最小歪みのみを誘導する分散トレーニングシステムが得られることを示す。
- 参考スコア(独自算出の注目度): 179.06583469293386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional deep learning models are trained at a centralized server using
labeled data samples collected from end devices or users. Such data samples
often include private information, which the users may not be willing to share.
Federated learning (FL) is an emerging approach to train such learning models
without requiring the users to share their possibly private labeled data. In
FL, each user trains its copy of the learning model locally. The server then
collects the individual updates and aggregates them into a global model. A
major challenge that arises in this method is the need of each user to
efficiently transmit its learned model over the throughput limited uplink
channel. In this work, we tackle this challenge using tools from quantization
theory. In particular, we identify the unique characteristics associated with
conveying trained models over rate-constrained channels, and propose a suitable
quantization scheme for such settings, referred to as universal vector
quantization for FL (UVeQFed). We show that combining universal vector
quantization methods with FL yields a decentralized training system in which
the compression of the trained models induces only a minimum distortion. We
then theoretically analyze the distortion, showing that it vanishes as the
number of users grows. We also characterize the convergence of models trained
with the traditional federated averaging method combined with UVeQFed to the
model which minimizes the loss function. Our numerical results demonstrate the
gains of UVeQFed over previously proposed methods in terms of both distortion
induced in quantization and accuracy of the resulting aggregated model.
- Abstract(参考訳): 従来のディープラーニングモデルは、エンドデバイスやユーザから収集されたラベル付きデータサンプルを使用して、集中型サーバでトレーニングされる。
このようなデータサンプルには、ユーザが共有する意思のないプライベート情報が含まれることが多い。
フェデレートラーニング(FL)は、ユーザがプライベートラベル付きデータを共有することなく、そのような学習モデルをトレーニングする、新たなアプローチである。
FLでは、各ユーザが学習モデルのコピーをローカルにトレーニングする。
サーバは個々の更新を収集し、それらをグローバルモデルに集約する。
この方法で生じる大きな課題は、各ユーザがスループット制限されたアップリンクチャネル上で学習したモデルを効率的に送信する必要があることである。
本研究では,量子化理論のツールを用いてこの問題に取り組む。
特に,レート制約されたチャネル上での学習モデルの伝達に関連する特異な特徴を同定し,そのような設定に対する適切な量子化スキームを提案し,これを fl (uveqfed) の普遍ベクトル量子化と呼ぶ。
一般化ベクトル量子化法とflを組み合わせることで,訓練モデルの圧縮が最小歪みのみを誘発する分散学習系が得られることを示す。
そして、理論的に歪みを分析し、ユーザが増加するにつれて消えていくことを示す。
また、従来のフェデレーション平均化法とUVeQFedを組み合わせたモデルと、損失関数を最小化するモデルの収束性を特徴付ける。
数値計算により,従来の提案手法に比べて,量子化による歪みと得られた集約モデルの精度の両面からUVeQFedの利得を示す。
関連論文リスト
- MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - Straggler-resilient Federated Learning: Tackling Computation
Heterogeneity with Layer-wise Partial Model Training in Mobile Edge Network [4.1813760301635705]
本稿では,FedPMT(Federated partial Model Training)を提案する。
したがって、FedPMTのすべてのデバイスは、グローバルモデルの最も重要な部分を優先している。
実証的な結果は、FedPMTが既存のベンチマークFedDropを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2023-11-16T16:30:04Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - FedCAT: Towards Accurate Federated Learning via Device Concatenation [4.416919766772866]
Federated Learning(FL)は、すべてのデバイスが、ローカルデータのプライバシを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
非IIDシナリオでは、データの不均一性に起因する重みのばらつきにより、FLモデルの分類精度が大幅に低下する。
本稿では,Fed-Cat という新しいFLアプローチを導入し,提案したデバイス選択戦略とデバイス結合に基づく局所学習手法に基づいて,高精度なモデル精度を実現する。
論文 参考訳(メタデータ) (2022-02-23T10:08:43Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。