論文の概要: NSC-SL: A Bandwidth-Aware Neural Subspace Compression for Communication-Efficient Split Learning
- arxiv url: http://arxiv.org/abs/2602.02696v1
- Date: Mon, 02 Feb 2026 19:08:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.022909
- Title: NSC-SL: A Bandwidth-Aware Neural Subspace Compression for Communication-Efficient Split Learning
- Title(参考訳): NSC-SL:通信効率の良いスプリット学習のための帯域幅対応ニューラルサブスペース圧縮
- Authors: Zhen Fang, Miao Yang, Zehang Lin, Zheng Lin, Zihan Fang, Zongyuan Zhang, Tianyang Duan, Dong Huang, Shunzhi Zhu,
- Abstract要約: NSC-SLは,通信効率の高い分割学習のための適応圧縮アルゴリズムである。
NSC-SLは、収束に必要な意味豊かな情報を保持しながら高い圧縮比を達成する。
- 参考スコア(独自算出の注目度): 22.576107330283744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The expanding scale of neural networks poses a major challenge for distributed machine learning, particularly under limited communication resources. While split learning (SL) alleviates client computational burden by distributing model layers between clients and server, it incurs substantial communication overhead from frequent transmission of intermediate activations and gradients. To tackle this issue, we propose NSC-SL, a bandwidth-aware adaptive compression algorithm for communication-efficient SL. NSC-SL first dynamically determines the optimal rank of low-rank approximation based on the singular value distribution for adapting real-time bandwidth constraints. Then, NSC-SL performs error-compensated tensor factorization using alternating orthogonal iteration with residual feedback, effectively minimizing truncation loss. The collaborative mechanisms enable NSC-SL to achieve high compression ratios while preserving semantic-rich information essential for convergence. Extensive experiments demonstrate the superb performance of NSC-SL.
- Abstract(参考訳): ニューラルネットワークの規模拡大は、特に限られた通信リソースの下で、分散機械学習にとって大きな課題となる。
分割学習(SL)は、クライアントとサーバ間でモデル層を分散することでクライアントの計算負担を軽減するが、中間活性化と勾配の頻繁な伝達からかなりの通信オーバーヘッドを引き起こす。
そこで本稿では,通信効率向上のための帯域幅対応適応圧縮アルゴリズムであるNSC-SLを提案する。
NSC-SLは、まず、リアルタイム帯域幅制約に適応する特異値分布に基づいて、低ランク近似の最適ランクを動的に決定する。
そして、NSC-SLは、残差フィードバックによる交互直交繰り返しを用いた誤り補償テンソル分解を行い、トラルニケート損失を効果的に最小化する。
協調的なメカニズムにより、NSC-SLは収束に必要な意味豊かな情報を保持しながら高い圧縮比を達成することができる。
広汎な実験により, NSC-SLの超高速性能が実証された。
関連論文リスト
- SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression [25.47831071744755]
Split Learning(SL)は、エッジデバイスからサーバへの一次コンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
参加する装置の数が増えるにつれて、過度にスマッシュされたデータの送信がSLの大きなボトルネックとなる。
本稿では,2つの鍵成分からなる通信効率の高いSLフレームワークSL-ACCを提案する。
論文 参考訳(メタデータ) (2025-08-18T15:02:10Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Communication-Efficient Distributed Learning with Local Immediate Error
Compensation [95.6828475028581]
本稿では,局所的即時誤差補償SGD (LIEC-SGD) 最適化アルゴリズムを提案する。
LIEC-SGDは、コンバージェンスレートまたは通信コストのいずれにおいても、以前の研究よりも優れている。
論文 参考訳(メタデータ) (2024-02-19T05:59:09Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。