論文の概要: Joint Client Assignment and UAV Route Planning for
Indirect-Communication Federated Learning
- arxiv url: http://arxiv.org/abs/2304.10744v2
- Date: Mon, 24 Apr 2023 14:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 11:10:17.448027
- Title: Joint Client Assignment and UAV Route Planning for
Indirect-Communication Federated Learning
- Title(参考訳): 間接コミュニケーションフェデレーション学習のための共同顧客割り当てとUAV経路計画
- Authors: Jieming Bian, Cong Shen, Jie Xu
- Abstract要約: FedEx (Federated Learning via Model Express Delivery)と呼ばれる新しいフレームワークが提案されている。
UAVのような移動体トランスポーターを使用して、サーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncという2つのアルゴリズムがトランスポーターレベルで同期および非同期学習のために提案されている。
- 参考スコア(独自算出の注目度): 20.541942109704987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a machine learning approach that enables the
creation of shared models for powerful applications while allowing data to
remain on devices. This approach provides benefits such as improved data
privacy, security, and reduced latency. However, in some systems, direct
communication between clients and servers may not be possible, such as remote
areas without proper communication infrastructure. To overcome this challenge,
a new framework called FedEx (Federated Learning via Model Express Delivery) is
proposed. This framework employs mobile transporters, such as UAVs, to
establish indirect communication channels between the server and clients. These
transporters act as intermediaries and allow for model information exchange.
The use of indirect communication presents new challenges for convergence
analysis and optimization, as the delay introduced by the transporters'
movement creates issues for both global model dissemination and local model
collection. To address this, two algorithms, FedEx-Sync and FedEx-Async, are
proposed for synchronized and asynchronized learning at the transporter level.
Additionally, a bi-level optimization algorithm is proposed to solve the joint
client assignment and route planning problem. Experimental validation using two
public datasets in a simulated network demonstrates consistent results with the
theory, proving the efficacy of FedEx.
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、強力なアプリケーションのための共有モデルの作成と、デバイス上でのデータ保持を可能にする、マシンラーニングのアプローチである。
このアプローチは、データプライバシの改善、セキュリティ、レイテンシ低減といったメリットを提供する。
しかし、一部のシステムでは、適切な通信インフラのない遠隔地など、クライアントとサーバ間の直接通信ができない場合がある。
この課題を克服するため、FedEx (Federated Learning via Model Express Delivery)と呼ばれる新しいフレームワークが提案されている。
このフレームワークは、UAVのような移動体トランスポーターを使用して、サーバとクライアント間の間接的な通信チャネルを確立する。
これらのトランスポーターは仲介役となり、モデル情報交換を可能にする。
間接通信の利用は,グローバルモデルの普及と局所モデル収集の両面において,トランスポーターの動きによる遅延が問題となるため,収束解析と最適化に新たな課題をもたらす。
これを解決するために,FedEx-SyncとFedEx-Asyncという2つのアルゴリズムを提案する。
さらに,クライアント割当と経路計画の問題を解くために,biレベル最適化アルゴリズムを提案する。
シミュレーションネットワークにおける2つの公開データセットを用いた実験的検証により,fedexの有効性が実証された。
関連論文リスト
- FedMoE-DA: Federated Mixture of Experts via Domain Aware Fine-grained Aggregation [22.281467168796645]
Federated Learning(FL)は、複数のクライアントがプライベートデータを共有せずにモデルをトレーニングできる、コラボレーティブな機械学習アプローチである。
我々は、新しいドメイン認識、きめ細かい集約戦略を取り入れた新しいFLモデルトレーニングフレームワークであるFedMoE-DAを提案し、ロバスト性、パーソナライズ性、通信効率を同時に向上する。
論文 参考訳(メタデータ) (2024-11-04T14:29:04Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Federated Learning via Indirect Server-Client Communications [20.541942109704987]
Federated Learning(FL)は、コミュニケーション効率とプライバシ保護のための分散機械学習フレームワークである。
本稿では,FedEx という新しい FL フレームワークを提案する。このフレームワークは移動体トランスポーターを用いてサーバとクライアント間の間接的な通信チャネルを確立する。
FedEx-SyncとFedEx-Asyncと呼ばれる2つのアルゴリズムは、トランスポーターが同期または非同期スケジュールを採用するかどうかによって開発される。
論文 参考訳(メタデータ) (2023-02-14T20:12:36Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Accelerating Asynchronous Federated Learning Convergence via Opportunistic Mobile Relaying [3.802258033231335]
本稿では,非同期フェデレート学習(FL)アルゴリズムの収束性能に及ぼすモビリティの影響について検討する。
モビリティを活用することで、クライアントはリレーとして機能する別のクライアントを介して、サーバと間接的に通信できることを示す。
我々はFedMobileと呼ばれる新しいFLアルゴリズムを提案し、機会論的リレーを取り入れ、いつ、どのようにリレーするかといった重要な問題に対処する。
論文 参考訳(メタデータ) (2022-06-09T19:23:20Z) - To Talk or to Work: Delay Efficient Federated Learning over Mobile Edge
Devices [13.318419040823088]
モバイルデバイスは、中央サーバの調整の下で、自身のデータに基づいてモデルをトレーニングするために協力する。
データの中心的な可用性がなければ、計算ノードは収束を達成するためにしばしばモデル更新を伝える必要がある。
本稿では,モデルが収束するために必要な全時間(計算待ち時間と通信待ち時間の両方)と通信ラウンドを削減できる遅延効率FL機構を提案する。
論文 参考訳(メタデータ) (2021-11-01T00:35:32Z) - Double Momentum SGD for Federated Learning [94.58442574293021]
我々は、フェデレート学習におけるモデル性能を改善するために、DOMOと呼ばれる新しいSGD変種を提案する。
1つのモメンタバッファはサーバ更新方向を追跡し、もう1つはローカル更新方向を追跡します。
本稿では,サーバとローカルモーメントSGDを協調する新しいサーバモーメント融合手法を提案する。
論文 参考訳(メタデータ) (2021-02-08T02:47:24Z) - FedAT: A High-Performance and Communication-Efficient Federated Learning
System with Asynchronous Tiers [22.59875034596411]
非i.d.データに基づく非同期タイアを用いた新しいフェデレーション学習手法であるFederated Learning法であるFedATを提案する。
FedATは、収束速度とテスト精度を改善したストラグラー効果を最小化する。
その結果、FedATは予測性能を最大21.09%改善し、最先端FL法と比較して通信コストを最大8.5倍削減した。
論文 参考訳(メタデータ) (2020-10-12T18:38:51Z) - Communication-Efficient and Distributed Learning Over Wireless Networks:
Principles and Applications [55.65768284748698]
機械学習(ML)は、第5世代(5G)通信システムなどのための有望なイネーブルである。
本稿では、関連するコミュニケーションとMLの原則を概観し、選択したユースケースでコミュニケーション効率と分散学習フレームワークを提示することを目的とする。
論文 参考訳(メタデータ) (2020-08-06T12:37:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。