論文の概要: SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression
- arxiv url: http://arxiv.org/abs/2508.12984v1
- Date: Mon, 18 Aug 2025 15:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.388392
- Title: SL-ACC: A Communication-Efficient Split Learning Framework with Adaptive Channel-wise Compression
- Title(参考訳): SL-ACC:適応型チャネルワイド圧縮を用いた通信効率の良い分割学習フレームワーク
- Authors: Zehang Lin, Zheng Lin, Miao Yang, Jianhao Huang, Yuxin Zhang, Zihan Fang, Xia Du, Zhe Chen, Shunzhi Zhu, Wei Ni,
- Abstract要約: Split Learning(SL)は、エッジデバイスからサーバへの一次コンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
参加する装置の数が増えるにつれて、過度にスマッシュされたデータの送信がSLの大きなボトルネックとなる。
本稿では,2つの鍵成分からなる通信効率の高いSLフレームワークSL-ACCを提案する。
- 参考スコア(独自算出の注目度): 25.47831071744755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing complexity of neural networks poses a significant barrier to the deployment of distributed machine learning (ML) on resource-constrained devices, such as federated learning (FL). Split learning (SL) offers a promising solution by offloading the primary computing load from edge devices to a server via model partitioning. However, as the number of participating devices increases, the transmission of excessive smashed data (i.e., activations and gradients) becomes a major bottleneck for SL, slowing down the model training. To tackle this challenge, we propose a communication-efficient SL framework, named SL-ACC, which comprises two key components: adaptive channel importance identification (ACII) and channel grouping compression (CGC). ACII first identifies the contribution of each channel in the smashed data to model training using Shannon entropy. Following this, CGC groups the channels based on their entropy and performs group-wise adaptive compression to shrink the transmission volume without compromising training accuracy. Extensive experiments across various datasets validate that our proposed SL-ACC framework takes considerably less time to achieve a target accuracy than state-of-the-art benchmarks.
- Abstract(参考訳): ニューラルネットワークの複雑さの増大は、フェデレーション学習(FL)のようなリソース制約のあるデバイスに分散機械学習(ML)をデプロイする上で、大きな障壁となる。
Split Learning (SL)は、エッジデバイスからモデルパーティショニングを介してサーバにプライマリコンピューティング負荷をオフロードすることで、有望なソリューションを提供する。
しかし、参加する装置の数が増えるにつれて、過度にスマッシュされたデータ(すなわちアクティベーションと勾配)がSLの大きなボトルネックとなり、モデルの訓練が遅くなる。
この課題に対処するために,アダプティブチャネル重要度識別(ACII)とチャネルグループ圧縮(CGC)の2つの主要なコンポーネントからなる通信効率の高いSLフレームワークSL-ACCを提案する。
ACIIはまず,シャノンエントロピーを用いたモデルトレーニングにおけるスマッシュデータ中の各チャネルの寄与を同定する。
その後、CGCはそのエントロピーに基づいてチャネルをグループ化し、グループワイド適応圧縮を行い、トレーニング精度を損なうことなく送信量を縮小する。
様々なデータセットにわたる大規模な実験により、我々の提案するSL-ACCフレームワークは、最先端のベンチマークよりも目標精度を達成するのにかなり時間がかかることが検証された。
関連論文リスト
- Federated Split Learning with Model Pruning and Gradient Quantization in Wireless Networks [7.439160287320074]
Federated split learning (FedSL)は、モデル分割によるエッジデバイスとサーバ間の協調トレーニングを実装している。
本稿では,リソース制約のあるエッジデバイスのトレーニング負担を軽減する軽量なFedSL方式を提案する。
提案手法の収束性能を定量化するために理論的解析を行う。
論文 参考訳(メタデータ) (2024-12-09T11:43:03Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Efficient Parallel Split Learning over Resource-constrained Wireless
Edge Networks [44.37047471448793]
本稿では,エッジコンピューティングパラダイムと並列分割学習(PSL)の統合を提唱する。
そこで本研究では,モデル学習を高速化するために,効率的な並列分割学習(EPSL)という革新的なPSLフレームワークを提案する。
提案するEPSLフレームワークは,目標精度を達成するために必要なトレーニング遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2023-03-26T16:09:48Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。