論文の概要: Network Adaptive Federated Learning: Congestion and Lossy Compression
- arxiv url: http://arxiv.org/abs/2301.04430v1
- Date: Wed, 11 Jan 2023 12:15:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 14:39:29.953370
- Title: Network Adaptive Federated Learning: Congestion and Lossy Compression
- Title(参考訳): ネットワーク適応型連合学習:混雑と損失圧縮
- Authors: Parikshit Hegde, Gustavo de Veciana, Aryan Mokhtari
- Abstract要約: Federated Learning (FL) システムは、クライアントとサーバ間の大規模なファイル(モデル更新)の頻繁な交換に依存している。
ロスシー圧縮は、交換されたファイルのサイズと関連する遅延を減らすために使用できる。
本稿では,クライアントの損失圧縮選択をネットワーク混雑変動に動的に変更するネットワーク適応圧縮(NAC-FL)ポリシーを提案する。
- 参考スコア(独自算出の注目度): 35.25838083703984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In order to achieve the dual goals of privacy and learning across distributed
data, Federated Learning (FL) systems rely on frequent exchanges of large files
(model updates) between a set of clients and the server. As such FL systems are
exposed to, or indeed the cause of, congestion across a wide set of network
resources. Lossy compression can be used to reduce the size of exchanged files
and associated delays, at the cost of adding noise to model updates. By
judiciously adapting clients' compression to varying network congestion, an FL
application can reduce wall clock training time. To that end, we propose a
Network Adaptive Compression (NAC-FL) policy, which dynamically varies the
client's lossy compression choices to network congestion variations. We prove,
under appropriate assumptions, that NAC-FL is asymptotically optimal in terms
of directly minimizing the expected wall clock training time. Further, we show
via simulation that NAC-FL achieves robust performance improvements with higher
gains in settings with positively correlated delays across time.
- Abstract(参考訳): 分散データ間のプライバシと学習の2つの目標を達成するために、フェデレーション学習(fl)システムは、クライアントとサーバのセット間で、頻繁に大きなファイル(モデル更新)を交換する。
このように、flシステムは、ネットワークリソースの幅広いセットにまたがる混雑に晒されるか、あるいはその原因となる。
ロスシー圧縮は、モデル更新にノイズを加えるコストで、交換されたファイルのサイズと関連する遅延を減らすために使用できる。
クライアントの圧縮を様々なネットワーク混雑に適応させることで、FLアプリケーションはウォールクロックのトレーニング時間を短縮することができる。
そこで本研究では,ネットワーク混雑変動に対するクライアントの損失圧縮選択を動的に変化させるネットワーク適応圧縮(NAC-FL)ポリシーを提案する。
適切な仮定の下では,NAC-FLは壁時計のトレーニング時間を直接最小化する点で漸近的に最適であることを示す。
さらにシミュレーションにより,nac-flは時間的遅延に正の相関がある設定において高いゲインで頑健な性能改善を達成できることを示した。
関連論文リスト
- Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Adaptive Control of Client Selection and Gradient Compression for
Efficient Federated Learning [28.185096784982544]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに協調的にモデルを訓練することを可能にする。
我々はFedCGと呼ばれる不均一なFLフレームワークを提案し、適応的なクライアント選択と勾配圧縮を行う。
実世界のプロトタイプとシミュレーションの両方の実験により、FedCGは他の方法と比較して最大5.3$times$ Speedupを提供できることが示された。
論文 参考訳(メタデータ) (2022-12-19T14:19:07Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Optimal Rate Adaption in Federated Learning with Compressed
Communications [28.16239232265479]
フェデレートラーニングは高い通信オーバーヘッドを引き起こし、モデル更新の圧縮によって大幅に軽減される。
ネットワーク環境における 圧縮とモデルの精度のトレードオフは 未だ不明です
各繰り返しの圧縮を戦略的に調整することで最終モデルの精度を最大化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-13T14:26:15Z) - Slashing Communication Traffic in Federated Learning by Transmitting
Clustered Model Updates [12.660500431713336]
Federated Learning(FL)は、複数のクライアントが共同で学習モデルをトレーニングできる、新たな分散型学習フレームワークである。
クライアントとパラメータサーバ間のインターネットを介してモデル更新を交換することで、通信トラフィックが増大する可能性がある。
本研究では,ソフトウェアクラスタリング(MUCSC)によるモデル更新圧縮を考案し,クライアントとPS間で送信されるモデル更新を圧縮する。
論文 参考訳(メタデータ) (2021-05-10T07:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。