論文の概要: FedLAM: Low-latency Wireless Federated Learning via Layer-wise Adaptive Modulation
- arxiv url: http://arxiv.org/abs/2510.07766v1
- Date: Thu, 09 Oct 2025 04:07:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.859253
- Title: FedLAM: Low-latency Wireless Federated Learning via Layer-wise Adaptive Modulation
- Title(参考訳): FedLAM:レイヤワイド適応変調による低レイテンシワイヤレスフェデレーションラーニング
- Authors: Linping Qu, Shenghui Song, Chi-Ying Tsui,
- Abstract要約: 無線連合学習(FL)では、クライアントは帯域幅制限チャネルを介して高次元ディープニューラルネットワーク(DNN)パラメータを送信する必要がある。
通信遅延を抑えるため,レイヤワイド適応変調方式を提案する。
- 参考スコア(独自算出の注目度): 12.221906767196595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In wireless federated learning (FL), the clients need to transmit the high-dimensional deep neural network (DNN) parameters through bandwidth-limited channels, which causes the communication latency issue. In this paper, we propose a layer-wise adaptive modulation scheme to save the communication latency. Unlike existing works which assign the same modulation level for all DNN layers, we consider the layers' importance which provides more freedom to save the latency. The proposed scheme can automatically decide the optimal modulation levels for different DNN layers. Experimental results show that the proposed scheme can save up to 73.9% of communication latency compared with the existing schemes.
- Abstract(参考訳): 無線連合学習(FL)では、クライアントは帯域幅に制限のあるチャネルを介して高次元のディープニューラルネットワーク(DNN)パラメータを送信する必要がある。
本稿では,通信遅延を低減させるレイヤワイド適応変調方式を提案する。
すべてのDNNレイヤに同じ変調レベルを割り当てている既存の作業とは異なり、レイテンシを節約する自由を提供するレイヤの重要性を考えます。
提案手法は,異なるDNN層に対する最適変調レベルを自動的に決定する。
実験の結果,提案方式は既存の方式と比較して通信遅延を最大73.9%削減できることがわかった。
関連論文リスト
- Neural Network Based Framework for Passive Intermodulation Cancellation in MIMO Systems [15.303553586865826]
本稿では, アンテナやサブキャリア間の非線形依存関係を効率的に捉えるために, 奥行き分離可能な畳み込みと拡張畳み込みを利用するPIMキャンセルのための軽量ディープラーニングフレームワークを提案する。
その結果,3次受動変調(PIM)の歪みを効果的に抑制し,最大29dBの平均電力誤差(APE)を111kのトレーニングパラメータで達成できることがわかった。
論文 参考訳(メタデータ) (2025-09-21T07:43:53Z) - Lightweight Federated Learning over Wireless Edge Networks [83.4818741890634]
Federated (FL) はネットワークエッジの代替品であるが、無線ネットワークでは代替品である。
閉形式式FL収束ギャップ伝送パワー,モデルプルーニング誤差,量子化を導出する。
LTFLは、実世界のデータセットの実験において最先端のスキームよりも優れている。
論文 参考訳(メタデータ) (2025-07-13T09:14:17Z) - SDP: Spiking Diffusion Policy for Robotic Manipulation with Learnable Channel-Wise Membrane Thresholds [7.4357764462464635]
本稿では,ロボット操作のためのスパイキング拡散ポリシー(SDP)学習手法を提案する。
SDPは、Spyking NeuronsとLearnerable Channel-wise membrane Thresholds (LCMT)を拡散ポリシーモデルに統合する。
我々は、ベースラインSNN法よりも高速な収束速度とともに、ANN法に匹敵する結果を得る。
論文 参考訳(メタデータ) (2024-09-17T13:53:36Z) - An ML-assisted OTFS vs. OFDM adaptable modem [1.8492669447784602]
OTFSおよびOFDM波形は、レガシーアーキテクチャの再利用、レシーバ設計の単純さ、低複雑さ検出の利点を享受する。
本稿では,送信機におけるOTFSまたはOFDM信号処理チェーンと受信機とを切り替えて,平均二乗誤差(MSE)性能を最適化するディープニューラルネットワーク(DNN)に基づく適応方式を提案する。
論文 参考訳(メタデータ) (2023-09-04T02:33:44Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - SlimFL: Federated Learning with Superposition Coding over Slimmable
Neural Networks [56.68149211499535]
フェデレートラーニング(FL)は、デバイスの分散コンピューティング機能を活用した効率的なコミュニケーションとコンピューティングのための重要な実現手段である。
本稿では、FLと幅調整可能なスリムブルニューラルネットワーク(SNN)を統合した新しい学習フレームワークを提案する。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2022-03-26T15:06:13Z) - Joint Superposition Coding and Training for Federated Learning over
Multi-Width Neural Networks [52.93232352968347]
本稿では,2つの相乗的技術,フェデレートラーニング(FL)と幅調整可能なスリムブルニューラルネットワーク(SNN)を統合することを目的とする。
FLは、ローカルに訓練されたモバイルデバイスのモデルを交換することによって、データのプライバシを保護している。しかしながら、SNNは、特に時間変化のあるチャネル条件との無線接続下では、非自明である。
局所モデル更新のためのグローバルモデル集約と重ね合わせ訓練(ST)に重ね合わせ符号化(SC)を併用した通信およびエネルギー効率の高いSNNベースFL(SlimFL)を提案する。
論文 参考訳(メタデータ) (2021-12-05T11:17:17Z) - Learning OFDM Waveforms with PAPR and ACLR Constraints [15.423422040627331]
達成可能な情報レートを最大化しつつ,選択した制約を満たすOFDMベースの波形を設計するための学習ベース手法を提案する。
エンドツーエンドシステムは,PAPRとACLRの制約を満たすことができ,スループットを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2021-10-21T08:58:59Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。