論文の概要: Federated Learning over a Wireless Network: Distributed User Selection
through Random Access
- arxiv url: http://arxiv.org/abs/2307.03758v1
- Date: Fri, 7 Jul 2023 02:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 17:47:21.607722
- Title: Federated Learning over a Wireless Network: Distributed User Selection
through Random Access
- Title(参考訳): 無線ネットワーク上でのフェデレーション学習:ランダムアクセスによる分散ユーザ選択
- Authors: Chen Sun, Shiyao Ma, Ce Zheng, Songtao Wu, Tao Cui, Lingjuan Lyu
- Abstract要約: 本研究では,分散ユーザ選択におけるネットワーク固有のアプローチを提案する。
我々は、訓練の各ラウンドで無線リソースを取得するために、特定のユーザを優先するために、競合ウィンドウ(CW)サイズを操作します。
優先順位付けは、新たに訓練されたローカルモデルと前回のラウンドのグローバルモデルとの距離に基づいて行われる。
- 参考スコア(独自算出の注目度): 23.544290667425532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User selection has become crucial for decreasing the communication costs of
federated learning (FL) over wireless networks. However, centralized user
selection causes additional system complexity. This study proposes a network
intrinsic approach of distributed user selection that leverages the radio
resource competition mechanism in random access. Taking the carrier sensing
multiple access (CSMA) mechanism as an example of random access, we manipulate
the contention window (CW) size to prioritize certain users for obtaining radio
resources in each round of training. Training data bias is used as a target
scenario for FL with user selection. Prioritization is based on the distance
between the newly trained local model and the global model of the previous
round. To avoid excessive contribution by certain users, a counting mechanism
is used to ensure fairness. Simulations with various datasets demonstrate that
this method can rapidly achieve convergence similar to that of the centralized
user selection approach.
- Abstract(参考訳): ユーザ選択は,無線ネットワーク上でのフェデレーション学習(FL)の通信コスト削減に不可欠である。
しかし、集中的なユーザー選択は、システムの複雑さを増す。
本研究では,ランダムアクセスにおける無線リソース競合機構を活用する分散ユーザ選択のネットワーク固有のアプローチを提案する。
通信事業者が複数アクセス(CSMA)機構をランダムアクセスの例として用いて、コンパクションウィンドウ(CW)サイズを操作して、訓練の各ラウンドで無線リソースを得るために特定のユーザを優先順位付けする。
トレーニングデータバイアスは、ユーザ選択を伴うFLのターゲットシナリオとして使用される。
優先順位付けは、新しく訓練されたローカルモデルと前回のラウンドのグローバルモデルの距離に基づいている。
特定のユーザによる過剰な貢献を避けるため、公正性を確保するためにカウント機構を使用する。
各種データセットを用いたシミュレーションにより, この手法は集中型ユーザ選択手法と同様の収束を迅速に実現できることを示す。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Asynchronous Wireless Federated Learning with Probabilistic Client
Selection [20.882840344104135]
Federated Learning(FL)は、クライアントがサーバによって調整された機械学習モデルを協調的にトレーニングする、有望な分散学習フレームワークである。
各クライアントはローカル更新を保持し、確率的にローカルモデルを送信する。
我々は,非確率収束問題をグローバルに最適に解くための反復アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-11-28T12:39:34Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Jointly Learning from Decentralized (Federated) and Centralized Data to
Mitigate Distribution Shift [2.9965560298318468]
フェデレートラーニング(FL)は、エッジデバイス上で学習が一括して行われる、ますます使われるパラダイムである。
デバイス上のトレーニング例では、推論時に発生すると思われるデータ入力が不足している可能性がある。
本稿では、FLと混在するデータセンターデータの選択的使用法である、このシフトを緩和する方法を提案する。
論文 参考訳(メタデータ) (2021-11-23T20:51:24Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Throughput and Latency in the Distributed Q-Learning Random Access mMTC
Networks [0.0]
mMTCモードでは、何千ものデバイスがスポラジカルにネットワークリソースにアクセスしようとするため、ランダムアクセス(RA)の問題が重要である。
本研究では,送信するパケット数がより多いデバイスを優先する中央ノードから報酬を変動させることにより,分散パケットベースの学習手法を提案する。
計算結果から,分散パケットベースのQ-ラーニング手法は,従来の独立・協調手法よりもスループット・レイテンシのトレードオフがはるかに優れていることがわかった。
論文 参考訳(メタデータ) (2021-10-30T17:57:06Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。