論文の概要: Federated Learning over a Wireless Network: Distributed User Selection
through Random Access
- arxiv url: http://arxiv.org/abs/2307.03758v1
- Date: Fri, 7 Jul 2023 02:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 17:47:21.607722
- Title: Federated Learning over a Wireless Network: Distributed User Selection
through Random Access
- Title(参考訳): 無線ネットワーク上でのフェデレーション学習:ランダムアクセスによる分散ユーザ選択
- Authors: Chen Sun, Shiyao Ma, Ce Zheng, Songtao Wu, Tao Cui, Lingjuan Lyu
- Abstract要約: 本研究では,分散ユーザ選択におけるネットワーク固有のアプローチを提案する。
我々は、訓練の各ラウンドで無線リソースを取得するために、特定のユーザを優先するために、競合ウィンドウ(CW)サイズを操作します。
優先順位付けは、新たに訓練されたローカルモデルと前回のラウンドのグローバルモデルとの距離に基づいて行われる。
- 参考スコア(独自算出の注目度): 23.544290667425532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User selection has become crucial for decreasing the communication costs of
federated learning (FL) over wireless networks. However, centralized user
selection causes additional system complexity. This study proposes a network
intrinsic approach of distributed user selection that leverages the radio
resource competition mechanism in random access. Taking the carrier sensing
multiple access (CSMA) mechanism as an example of random access, we manipulate
the contention window (CW) size to prioritize certain users for obtaining radio
resources in each round of training. Training data bias is used as a target
scenario for FL with user selection. Prioritization is based on the distance
between the newly trained local model and the global model of the previous
round. To avoid excessive contribution by certain users, a counting mechanism
is used to ensure fairness. Simulations with various datasets demonstrate that
this method can rapidly achieve convergence similar to that of the centralized
user selection approach.
- Abstract(参考訳): ユーザ選択は,無線ネットワーク上でのフェデレーション学習(FL)の通信コスト削減に不可欠である。
しかし、集中的なユーザー選択は、システムの複雑さを増す。
本研究では,ランダムアクセスにおける無線リソース競合機構を活用する分散ユーザ選択のネットワーク固有のアプローチを提案する。
通信事業者が複数アクセス(CSMA)機構をランダムアクセスの例として用いて、コンパクションウィンドウ(CW)サイズを操作して、訓練の各ラウンドで無線リソースを得るために特定のユーザを優先順位付けする。
トレーニングデータバイアスは、ユーザ選択を伴うFLのターゲットシナリオとして使用される。
優先順位付けは、新しく訓練されたローカルモデルと前回のラウンドのグローバルモデルの距離に基づいている。
特定のユーザによる過剰な貢献を避けるため、公正性を確保するためにカウント機構を使用する。
各種データセットを用いたシミュレーションにより, この手法は集中型ユーザ選択手法と同様の収束を迅速に実現できることを示す。
関連論文リスト
- SFedCA: Credit Assignment-Based Active Client Selection Strategy for Spiking Federated Learning [15.256986486372407]
フェデレーション学習のスパイクにより、リソースに制約のあるデバイスは、ローカルデータを交換することなく、低消費電力で協調的にトレーニングできる。
既存のスパイキングフェデレーション学習手法では、クライアントのアグリゲーションに対してランダムな選択アプローチを採用しており、不偏なクライアントの参加を前提としている。
本研究では,グローバルなサンプル分布バランスに寄与するクライアントを鑑定するために,クレジット割当に基づくアクティブクライアント選択戦略であるSFedCAを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:56:22Z) - Cohort Squeeze: Beyond a Single Communication Round per Cohort in Cross-Device Federated Learning [51.560590617691005]
各コホートから「より多くのジュースを抽出できるかどうか」を単一の通信ラウンドでできることよりも検討する。
本手法は,デバイス間通信におけるFLモデルのトレーニングに必要な通信コストを最大74%削減する。
論文 参考訳(メタデータ) (2024-06-03T08:48:49Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Jointly Learning from Decentralized (Federated) and Centralized Data to
Mitigate Distribution Shift [2.9965560298318468]
フェデレートラーニング(FL)は、エッジデバイス上で学習が一括して行われる、ますます使われるパラダイムである。
デバイス上のトレーニング例では、推論時に発生すると思われるデータ入力が不足している可能性がある。
本稿では、FLと混在するデータセンターデータの選択的使用法である、このシフトを緩和する方法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:51:24Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Throughput and Latency in the Distributed Q-Learning Random Access mMTC
Networks [0.0]
mMTCモードでは、何千ものデバイスがスポラジカルにネットワークリソースにアクセスしようとするため、ランダムアクセス(RA)の問題が重要である。
本研究では,送信するパケット数がより多いデバイスを優先する中央ノードから報酬を変動させることにより,分散パケットベースの学習手法を提案する。
計算結果から,分散パケットベースのQ-ラーニング手法は,従来の独立・協調手法よりもスループット・レイテンシのトレードオフがはるかに優れていることがわかった。
論文 参考訳(メタデータ) (2021-10-30T17:57:06Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。