論文の概要: NCAirFL: CSI-Free Over-the-Air Federated Learning Based on Non-Coherent Detection
- arxiv url: http://arxiv.org/abs/2411.13000v1
- Date: Wed, 20 Nov 2024 02:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:11:31.828886
- Title: NCAirFL: CSI-Free Over-the-Air Federated Learning Based on Non-Coherent Detection
- Title(参考訳): NCAirFL:非コヒーレント検出に基づくCSI-free Over-the-Air Federated Learning
- Authors: Haifeng Wen, Nicolò Michelusi, Osvaldo Simeone, Hong Xing,
- Abstract要約: オーバー・ザ・エア・フェデレーションド・ラーニング(Over-the-air Federated Learning, FL)は、複数のアクセスチャネル上でプリミティブな計算を利用する。
AirFLの長年の課題は、高価なチャネル推定とフィードバックに頼ることなく、コヒーレントな信号アライメントを実現することである。
- 参考スコア(独自算出の注目度): 36.492934314653766
- License:
- Abstract: Over-the-air federated learning (FL), i.e., AirFL, leverages computing primitively over multiple access channels. A long-standing challenge in AirFL is to achieve coherent signal alignment without relying on expensive channel estimation and feedback. This paper proposes NCAirFL, a CSI-free AirFL scheme based on unbiased non-coherent detection at the edge server. By exploiting binary dithering and a long-term memory based error-compensation mechanism, NCAirFL achieves a convergence rate of order $\mathcal{O}(1/\sqrt{T})$ in terms of the average square norm of the gradient for general non-convex and smooth objectives, where $T$ is the number of communication rounds. Experiments demonstrate the competitive performance of NCAirFL compared to vanilla FL with ideal communications and to coherent transmission-based benchmarks.
- Abstract(参考訳): オーバー・ザ・エア・フェデレーションド・ラーニング(Over-the-air Federated Learning, FL)は、複数のアクセスチャネル上でプリミティブな計算を利用する。
AirFLの長年の課題は、高価なチャネル推定とフィードバックに頼ることなく、コヒーレントな信号アライメントを実現することである。
本稿では,エッジサーバにおける非バイアス非コヒーレント検出に基づくCSIフリーAirFLスキームNCAirFLを提案する。
2次ディザリングと長期メモリベースのエラー補償機構を利用することで、NCAirFLは、一般的な非凸および滑らかな目的に対する勾配の平均平方ノルムの項で、$T$は通信ラウンドの数である、順$\mathcal{O}(1/\sqrt{T})$の収束率を達成する。
実験では、理想的な通信とコヒーレント伝送ベースのベンチマークを用いたバニラFLと比較してNCAirFLの競争性能を示す。
関連論文リスト
- UAV-assisted Unbiased Hierarchical Federated Learning: Performance and Convergence Analysis [16.963596661873954]
HFL(Hierarchical Federated Learning)は、エッジデバイス間で学習を分散し、グローバルインテリジェンスに到達するための重要なパラダイムである。
HFLでは、各エッジデバイスが各データを使用してローカルモデルをトレーニングし、更新されたモデルパラメータをエッジサーバに送信し、ローカルアグリゲーションを行う。
本稿では無人航空機(UAV)支援無線ネットワークのための非バイアスHFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-05T06:23:01Z) - Communication-efficient Vertical Federated Learning via Compressed Error Feedback [24.32409923443071]
コミュニケーションのオーバーヘッドは、学習(FL)におけるボトルネックとして知られている。
ネットワークをトレーニングするためのフェデレーションネットワーク上でのエラーフィードバックを提案する。
EFVFLは、スムーズな非重要な問題に対して、圧縮誤差をなくす必要はない。
論文 参考訳(メタデータ) (2024-06-20T15:40:38Z) - Convergence Analysis of Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
連立学習(FL)では、複数のクライアント間で共同トレーニングを行う方法が2つある:i)並列FL(PFL)、i)クライアントが並列にモデルを訓練するFL(SFL)、i)クライアントが逐次的にモデルを訓練するFL(SFL)である。
本稿では,不均一なデータに対するSFLの収束保証がまだ不十分であることを示す。
実験により,SFLはデバイス間設定において極めて不均一なデータ上でPFLより優れることを示した。
論文 参考訳(メタデータ) (2023-11-06T14:48:51Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Improving the Model Consistency of Decentralized Federated Learning [68.2795379609854]
フェデレートラーニング(FL)は中央サーバーを捨て、各クライアントは、分散化された通信ネットワークで隣人とのみ通信する。
既存のDFLは、ローカルクライアント間の不整合に悩まされ、FLFLに比べて劣る。
DFedSAMMGSを提案する。1lambda$はスペクトルゴシップ行列であり、$Q$はスパースデータギャップの数である。
論文 参考訳(メタデータ) (2023-02-08T14:37:34Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Low-Latency Cooperative Spectrum Sensing via Truncated Vertical
Federated Learning [51.51440623636274]
データプライバシを損なうことなく、複数のセカンダリユーザ(SU)にまたがる分散機能を活用できる垂直連合学習(VFL)フレームワークを提案する。
学習プロセスの高速化を目的として,T-VFL(Truncated vertical Federated Learning)アルゴリズムを提案する。
T-VFLの収束性能は、数学的解析によって提供され、シミュレーション結果によって正当化される。
論文 参考訳(メタデータ) (2022-08-07T10:39:27Z) - Bayesian Federated Learning over Wireless Networks [87.37301441859925]
フェデレーションラーニングは、ローカルデバイスに保存された異種データセットを使用したプライバシー保護と分散トレーニング方法です。
本稿では、スケーラブルBFL (SBFL) と呼ばれる効率的な修正BFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-31T07:32:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。