論文の概要: Federated Learning with Downlink Device Selection
- arxiv url: http://arxiv.org/abs/2107.03510v1
- Date: Wed, 7 Jul 2021 22:42:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 21:16:38.670030
- Title: Federated Learning with Downlink Device Selection
- Title(参考訳): ダウンリンクデバイス選択によるフェデレーション学習
- Authors: Mohammad Mohammadi Amiri, Sanjeev R. Kulkarni, H. Vincent Poor
- Abstract要約: 我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
デバイス選択は、PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づいて検討する。
- 参考スコア(独自算出の注目度): 92.14944020945846
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We study federated edge learning, where a global model is trained
collaboratively using privacy-sensitive data at the edge of a wireless network.
A parameter server (PS) keeps track of the global model and shares it with the
wireless edge devices for training using their private local data. The devices
then transmit their local model updates, which are used to update the global
model, to the PS. The algorithm, which involves transmission over PS-to-device
and device-to-PS links, continues until the convergence of the global model or
lack of any participating devices. In this study, we consider device selection
based on downlink channels over which the PS shares the global model with the
devices. Performing digital downlink transmission, we design a partial device
participation framework where a subset of the devices is selected for training
at each iteration. Therefore, the participating devices can have a better
estimate of the global model compared to the full device participation case
which is due to the shared nature of the broadcast channel with the price of
updating the global model with respect to a smaller set of data. At each
iteration, the PS broadcasts different quantized global model updates to
different participating devices based on the last global model estimates
available at the devices. We investigate the best number of participating
devices through experimental results for image classification using the MNIST
dataset with biased distribution.
- Abstract(参考訳): 我々は,無線ネットワークのエッジにおいて,プライバシーに敏感なデータを用いてグローバルモデルを協調訓練するフェデレーションエッジ学習について検討した。
パラメータサーバ(PS)は、グローバルモデルを追跡し、無線エッジデバイスと共有して、プライベートローカルデータを使用したトレーニングを行う。
次にデバイスは、グローバルモデルを更新するために使用されるローカルモデルのアップデートをpsに送信する。
このアルゴリズムは、PS-to-Deviceおよびデバイス-to-PSリンクの転送を伴い、グローバルモデルが収束するまで継続する。
本研究では,PSがデバイスとグローバルモデルを共有するダウンリンクチャネルに基づくデバイス選択について検討する。
デジタルダウンリンク伝送を行い、各イテレーションでトレーニングを行うために、デバイスのサブセットを選択する部分的デバイス参加フレームワークを設計する。
したがって、放送チャンネルの共有性に起因する全装置参加ケースと比較して、参加装置は、より少ないデータ集合に対してグローバルモデルを更新する価格で、グローバルモデルをより良く推定することができる。
各イテレーションでPSは、各デバイスで利用可能な最後のグローバルモデル推定に基づいて、さまざまな量子化されたグローバルモデル更新を、さまざまな参加デバイスにブロードキャストする。
mnistデータセットとバイアス分布を用いた画像分類実験の結果から,参加機器の最適数について検討した。
関連論文リスト
- Federated Learning with MMD-based Early Stopping for Adaptive GNSS Interference Classification [4.674584508653125]
フェデレートラーニング(FL)は、複数のデバイスがローカルサーバ上のデータを維持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,グローバルサーバ上でのモデルの重み付けと数ショット学習を用いたFL手法を提案する。
FLの模範的な応用は、グローバルナビゲーション衛星システム(GNSS)受信機からのスナップショットに基づいた干渉分類のために、高速道路に沿って機械学習モデルを編成することである。
論文 参考訳(メタデータ) (2024-10-21T06:43:04Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - A New Distributed Method for Training Generative Adversarial Networks [22.339672721348382]
本稿では,分散方式でGANを学習するための新しいフレームワークを提案する。
各デバイスはローカルデータを用いてローカル識別器を計算し、単一のサーバが結果を集計し、グローバルGANを算出する。
3つの一般的なデータセットを用いて得られた数値結果から,提案手法は収束速度の点で最先端のフレームワークより優れていることが示された。
論文 参考訳(メタデータ) (2021-07-19T08:38:10Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z) - Federated Learning With Quantized Global Model Updates [84.55126371346452]
モバイル端末がローカルデータセットを使用してグローバルモデルをトレーニングできるフェデレーション学習について検討する。
本稿では,大域的モデルと局所的モデル更新の両方を,送信前に量子化する損失FL(LFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-18T16:55:20Z) - Convergence of Update Aware Device Scheduling for Federated Learning at
the Wireless Edge [84.55126371346452]
遠隔パラメータサーバ(PS)の助けを借りて、ローカルデータセットを持つパワー制限デバイスが共同でジョイントモデルを訓練する無線エッジにおけるフェデレーション学習について研究する。
各ラウンドで送信するデバイスのサブセットを決定する新しいスケジューリングとリソース割り当てポリシーを設計する。
数値実験の結果,提案したスケジューリングポリシーは,チャネル条件と局所モデル更新の重要性の両方に基づいており,両者の指標のみに基づくスケジューリングポリシーよりも長期的性能がよいことがわかった。
論文 参考訳(メタデータ) (2020-01-28T15:15:22Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。