論文の概要: SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression
- arxiv url: http://arxiv.org/abs/2508.12984v1
- Date: Mon, 18 Aug 2025 15:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.388392
- Title: SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression
- Title(参考訳): SL-ACC:適応型チャネルワイド圧縮を用いた通信効率の良い分割学習フレームワーク
- Authors: Zehang Lin, Zheng Lin, Miao Yang, Jianhao Huang, Yuxin Zhang, Zihan Fang, Xia Du, Zhe Chen, Shunzhi Zhu, Wei Ni,
- Abstract要約: Split Learning(SL)は、エッジデバイスからサーバへの一次コンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
参加する装置の数が増えるにつれて、過度にスマッシュされたデータの送信がSLの大きなボトルネックとなる。
本稿では,2つの鍵成分からなる通信効率の高いSLフレームワークSL-ACCを提案する。
- 参考スコア(独自算出の注目度): 25.47831071744755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing complexity of neural networks poses a significant barrier to the deployment of distributed machine learning (ML) on resource-constrained devices, such as federated learning (FL). Split learning (SL) offers a promising solution by offloading the primary computing load from edge devices to a server via model partitioning. However, as the number of participating devices increases, the transmission of excessive smashed data (i.e., activations and gradients) becomes a major bottleneck for SL, slowing down the model training. To tackle this challenge, we propose a communication-efficient SL framework, named SL-ACC, which comprises two key components: adaptive channel importance identification (ACII) and channel grouping compression (CGC). ACII first identifies the contribution of each channel in the smashed data to model training using Shannon entropy. Following this, CGC groups the channels based on their entropy and performs group-wise adaptive compression to shrink the transmission volume without compromising training accuracy. Extensive experiments across various datasets validate that our proposed SL-ACC framework takes considerably less time to achieve a target accuracy than state-of-the-art benchmarks.
- Abstract(参考訳): ニューラルネットワークの複雑さの増大は、フェデレーション学習(FL)のようなリソース制約のあるデバイスに分散機械学習(ML)をデプロイする上で、大きな障壁となる。
Split Learning (SL)は、エッジデバイスからモデルパーティショニングを介してサーバにプライマリコンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
しかし、参加する装置の数が増えるにつれて、過度にスマッシュされたデータ(すなわちアクティベーションと勾配)がSLの大きなボトルネックとなり、モデルの訓練が遅くなる。
この課題に対処するために,アダプティブチャネル重要度識別(ACII)とチャネルグループ圧縮(CGC)の2つの主要なコンポーネントからなる通信効率の高いSLフレームワークSL-ACCを提案する。
ACIIはまず,シャノンエントロピーを用いたモデルトレーニングにおけるスマッシュデータ中の各チャネルの寄与を同定する。
その後、CGCはそのエントロピーに基づいてチャネルをグループ化し、グループワイド適応圧縮を行い、トレーニング精度を損なうことなく送信量を縮小する。
様々なデータセットにわたる大規模な実験により、我々の提案するSL-ACCフレームワークは、最先端のベンチマークよりも目標精度を達成するのにかなり時間がかかることが検証された。
関連論文リスト
- NSC-SL: A Bandwidth-Aware Neural Subspace Compression for Communication-Efficient Split Learning [22.576107330283744]
NSC-SLは,通信効率の高い分割学習のための適応圧縮アルゴリズムである。
NSC-SLは、収束に必要な意味豊かな情報を保持しながら高い圧縮比を達成する。
論文 参考訳(メタデータ) (2026-02-02T19:08:34Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Communication-Efficient Zero-Order and First-Order Federated Learning Methods over Wireless Networks [14.744958242029721]
Federated Learning (FL)は、エッジデバイスがローカルデータを共有せずに、協調的にMLモデルをトレーニングすることを可能にする。
FLは、トレーニングフェーズにおいて、デバイスとアグリゲータの間で大量の情報を交換する必要があるため、重大な課題に直面します。
2つの通信効率の高いFL法は、長いベクトルの代わりにスカラー値を通信することで通信オーバーヘッドを低減できると考えられる。
論文 参考訳(メタデータ) (2025-08-11T14:16:23Z) - Federated Split Learning with Model Pruning and Gradient Quantization in Wireless Networks [7.439160287320074]
Federated split learning (FedSL)は、モデル分割によるエッジデバイスとサーバ間の協調トレーニングを実装している。
本稿では,リソース制約のあるエッジデバイスのトレーニング負担を軽減する軽量なFedSL方式を提案する。
提案手法の収束性能を定量化するために理論的解析を行う。
論文 参考訳(メタデータ) (2024-12-09T11:43:03Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [65.04475956174959]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLにおける重要な課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータの敵ジャミングに対する感受性である。
本稿では,無線ネットワーク上での大規模言語モデル (LLM) と視覚言語モデル (VLM) を用いたレジリエンスSFLのための物理層フレームワークを開発する。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Disentangled Representation Learning for RF Fingerprint Extraction under
Unknown Channel Statistics [77.13542705329328]
本稿では,まず,不整合表現学習(DRL)の枠組みを提案し,入力信号を逆学習によりデバイス関連成分とデバイス関連成分に分解する。
提案フレームワークにおける暗黙的なデータ拡張は、デバイス非関連チャネル統計の過度な適合を避けるために、RFF抽出器に正規化を課す。
実験により、DR-RFFと呼ばれる提案手法は、未知の複雑な伝播環境に対する一般化可能性の観点から従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-04T15:46:48Z) - Federated Learning for Hybrid Beamforming in mm-Wave Massive MIMO [12.487990897680422]
本稿では,ハイブリッドビームフォーミングのためのFL(Federated Learning)ベースのフレームワークを紹介し,ベースステーションでモデルトレーニングを行う。
我々は、入力がチャネルデータである畳み込みニューラルネットワークを設計し、出力時にアナログビームフォーマを出力する。
FLは、チャネルデータの不完全性や破損に対してより寛容であり、CMLよりも透過オーバーヘッドが少ないことが示されている。
論文 参考訳(メタデータ) (2020-05-20T11:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。