論文の概要: CoCo-Fed: A Unified Framework for Memory- and Communication-Efficient Federated Learning at the Wireless Edge
- arxiv url: http://arxiv.org/abs/2601.00549v1
- Date: Fri, 02 Jan 2026 03:39:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.507566
- Title: CoCo-Fed: A Unified Framework for Memory- and Communication-Efficient Federated Learning at the Wireless Edge
- Title(参考訳): CoCo-Fed: 無線エッジにおけるメモリおよび通信効率の高いフェデレーション学習のための統一フレームワーク
- Authors: Zhiheng Guo, Zhaoyang Liu, Zihan Cen, Chenyuan Feng, Xinghua Sun, Xiang Chen, Tony Q. S. Quek, Xijun Wang,
- Abstract要約: ローカルメモリの効率とグローバル通信の削減を両立させる新しい圧縮・結合型学習フレームワークを提案する。
CoCo-Fedは、メモリと通信効率の両方において最先端のベースラインを著しく上回り、非IID設定下では堅牢な収束を維持している。
- 参考スコア(独自算出の注目度): 50.42067935605982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of large-scale neural networks within the Open Radio Access Network (O-RAN) architecture is pivotal for enabling native edge intelligence. However, this paradigm faces two critical bottlenecks: the prohibitive memory footprint required for local training on resource-constrained gNBs, and the saturation of bandwidth-limited backhaul links during the global aggregation of high-dimensional model updates. To address these challenges, we propose CoCo-Fed, a novel Compression and Combination-based Federated learning framework that unifies local memory efficiency and global communication reduction. Locally, CoCo-Fed breaks the memory wall by performing a double-dimension down-projection of gradients, adapting the optimizer to operate on low-rank structures without introducing additional inference parameters/latency. Globally, we introduce a transmission protocol based on orthogonal subspace superposition, where layer-wise updates are projected and superimposed into a single consolidated matrix per gNB, drastically reducing the backhaul traffic. Beyond empirical designs, we establish a rigorous theoretical foundation, proving the convergence of CoCo-Fed even under unsupervised learning conditions suitable for wireless sensing tasks. Extensive simulations on an angle-of-arrival estimation task demonstrate that CoCo-Fed significantly outperforms state-of-the-art baselines in both memory and communication efficiency while maintaining robust convergence under non-IID settings.
- Abstract(参考訳): Open Radio Access Network (O-RAN)アーキテクチャにおける大規模ニューラルネットワークの展開は、ネイティブエッジインテリジェンスの実現に不可欠である。
しかし,このパラダイムは,資源制約付きgNBのローカルトレーニングに必要なメモリフットプリントの禁止と,高次元モデル更新のグローバルアグリゲーションにおける帯域幅制限バックホールリンクの飽和という,2つの重要なボトルネックに直面している。
このような課題に対処するため,我々は,ローカルメモリ効率とグローバル通信の削減を両立させる新しい圧縮・結合型学習フレームワークであるCoCo-Fedを提案する。
局所的には、CoCo-Fedは勾配の2次元ダウンプロジェクションを実行してメモリ壁を壊し、最適化器を追加の推論パラメータ/遅延を導入することなく低ランク構造で動作させる。
グローバルに、直交部分空間重畳に基づく伝送プロトコルを導入し、レイヤーワイズ更新をgNB当たりの1つの統合行列に重畳し、バックホールトラフィックを大幅に削減する。
経験的設計を超えて、我々は、無線センシングタスクに適した教師なし学習条件下でもCoCo-Fedの収束を証明し、厳密な理論基盤を確立する。
CoCo-Fedは、非IID条件下での堅牢な収束を維持しつつ、メモリと通信効率の両方において、最先端のベースラインを著しく上回ることを示す。
関連論文リスト
- Gradient Projection onto Historical Descent Directions for Communication-Efficient Federated Learning [0.8220217498103312]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のクライアントにわたる分散モデルトレーニングを可能にする。
本稿では、非バイアス圧縮機用に設計されたProjFLと、エラーフィードバック機構によるバイアス圧縮機のためのProjFL+EFの2つのアルゴリズムを紹介する。
論文 参考訳(メタデータ) (2025-11-05T13:11:30Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - FedDuA: Doubly Adaptive Federated Learning [2.6108066206600555]
フェデレーション学習(Federated Learning)は、クライアントが生データを共有せずにグローバルモデルを共同でトレーニングする分散学習フレームワークである。
我々は、ミラー降下レンズによる中央サーバ最適化手順を定式化し、FedDuAと呼ばれる新しいフレームワークを提案する。
提案した2次適応型ステップサイズルールは最小限最適であり,凸対象に対する収束解析を提供する。
論文 参考訳(メタデータ) (2025-05-16T11:15:27Z) - Communication-Efficient Federated Learning by Quantized Variance Reduction for Heterogeneous Wireless Edge Networks [55.467288506826755]
フェデレーテッド・ラーニング(FL)は、無線エッジネットワークにおけるローカル・プライバシ・アウェア・コラボレーティブ・モデルトレーニングの有効なソリューションとして認識されている。
既存の通信効率の高いFLアルゴリズムは、デバイス間の大きなばらつきを低減できない。
本稿では,高度分散還元方式に依存する新しい通信効率FLアルゴリズムであるFedQVRを提案する。
論文 参考訳(メタデータ) (2025-01-20T04:26:21Z) - FedMeld: A Model-dispersal Federated Learning Framework for Space-ground Integrated Networks [37.88813798443069]
宇宙地上統合ネットワーク(SGIN)は、世界中の隅々に人工知能(AI)サービスを提供することが期待されている。
SGINsのミッションの1つは、世界規模で連邦学習(FL)をサポートすることである。
本稿では,モデル分散(FedMeld)戦略に基づく,インフラストラクチャフリーなフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-23T02:58:12Z) - Heterogeneity-Aware Cooperative Federated Edge Learning with Adaptive Computation and Communication Compression [7.643645513353701]
クラウドベースのフェデレーション・ラーニング(FL)の欠点により、モバイルエッジネットワーク上でのFLの効率を改善するために、協調フェデレーション・エッジ・ラーニング(CFEL)が提案されている。
CFELは、動的および不均一なデバイス特性から生じる重要な課題に直面し、収束を遅くし、リソース消費を増加させる。
本稿では、トレーニング時間とエネルギー消費を最小化し、モデル精度を最大化することを目的とした、textitHeterogeneity-Aware Cooperative Edge-based Federated Averaging (HCEF)と呼ばれる不均一性を考慮したCFEL方式を提案する。
論文 参考訳(メタデータ) (2024-09-06T04:26:57Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Federated Deep Equilibrium Learning: Harnessing Compact Global Representations to Enhance Personalization [23.340237814344377]
Federated Learning(FL)は、クライアントがデータを交換することなくグローバルモデルを協調的にトレーニングできる、画期的な分散学習パラダイムとして登場した。
FeDEQは,高効率なパーソナライズのために,コンパクトなグローバルデータ表現を利用するために,深い平衡学習とコンセンサス最適化を取り入れた新しいFLフレームワークである。
FeDEQは,訓練中の通信サイズを最大4倍,メモリフットプリントを1.5倍に削減しつつ,最先端のパーソナライズされたFL法の性能に適合することを示した。
論文 参考訳(メタデータ) (2023-09-27T13:48:12Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。