論文の概要: CycleSL: Server-Client Cyclical Update Driven Scalable Split Learning
- arxiv url: http://arxiv.org/abs/2511.18611v1
- Date: Sun, 23 Nov 2025 21:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.926185
- Title: CycleSL: Server-Client Cyclical Update Driven Scalable Split Learning
- Title(参考訳): CycleSL: サーバクライアントのサイクリックアップデート駆動のスケーラブルスプリット学習
- Authors: Mengdi Wang, Efe Bozkir, Enkelejda Kasneci,
- Abstract要約: 本稿では,新たなアグリゲーションフリーな分割学習フレームワークであるCycleSLを紹介する。
ブロック座標降下の交互化によって着想を得たCycleSLは、サーバサイドトレーニングを独立した高レベルの機械学習タスクとして扱う。
実験結果から,CycleSLのモデル性能向上効果が示唆された。
- 参考スコア(独自算出の注目度): 60.59553507555341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning emerges as a promising paradigm for collaborative distributed model training, akin to federated learning, by partitioning neural networks between clients and a server without raw data exchange. However, sequential split learning suffers from poor scalability, while parallel variants like parallel split learning and split federated learning often incur high server resource overhead due to model duplication and aggregation, and generally exhibit reduced model performance and convergence owing to factors like client drift and lag. To address these limitations, we introduce CycleSL, a novel aggregation-free split learning framework that enhances scalability and performance and can be seamlessly integrated with existing methods. Inspired by alternating block coordinate descent, CycleSL treats server-side training as an independent higher-level machine learning task, resampling client-extracted features (smashed data) to mitigate heterogeneity and drift. It then performs cyclical updates, namely optimizing the server model first, followed by client updates using the updated server for gradient computation. We integrate CycleSL into previous algorithms and benchmark them on five publicly available datasets with non-iid data distribution and partial client attendance. Our empirical findings highlight the effectiveness of CycleSL in enhancing model performance. Our source code is available at https://gitlab.lrz.de/hctl/CycleSL.
- Abstract(参考訳): 分散学習は、ニューラルネットワークを生のデータ交換なしでクライアントとサーバ間で分割することで、フェデレーション学習に似た、協調的な分散モデルトレーニングのための有望なパラダイムとして現れます。
しかし、逐次スプリット学習はスケーラビリティの低下に悩まされ、並列スプリットラーニングやフェデレートラーニングのような並列型は、モデル重複やアグリゲーションによる高いサーバリソースオーバーヘッドを引き起こすことが多く、一般的には、クライアントのドリフトやラグといった要因によるモデルパフォーマンスと収束の低下を示す。
このような制限に対処するために,拡張性と性能を向上し,既存のメソッドとシームレスに統合可能な,新しいアグリゲーションフリーの分割学習フレームワークであるCycleSLを紹介した。
ブロック座標降下の交互化によって着想を得たCycleSLは、サーバサイドトレーニングを独立した高度な機械学習タスクとして扱い、不均一性とドリフトを軽減するために、クライアントが抽出した機能(スマッシュデータ)を再サンプリングする。
次に、最初にサーバモデルを最適化し、次にアップデートされたサーバを使用してクライアントのアップデートを行い、グラデーション計算を行う。
我々は、CycleSLを以前のアルゴリズムに統合し、非IDデータ分散と部分的なクライアントアテンダンスを備えた5つの公開データセットでベンチマークする。
実験結果から,CycleSLのモデル性能向上効果が示唆された。
ソースコードはhttps://gitlab.lrz.de/hctl/CycleSL.orgで公開されています。
関連論文リスト
- CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Towards Client Driven Federated Learning [7.528642177161784]
私たちは、クライアントを駆動する新しいFLフレームワークであるクライアント駆動フェデレートラーニング(CDFL:Client-Driven Federated Learning)を紹介します。
CDFLでは、各クライアントは、ローカルにトレーニングされたモデルをサーバにアップロードし、ローカルタスクに合わせてカスタマイズされたモデルを受け取ることで、独立して非同期にモデルを更新する。
論文 参考訳(メタデータ) (2024-05-24T10:17:49Z) - CLIP-guided Federated Learning on Heterogeneous and Long-Tailed Data [25.56641696086199]
フェデレートラーニング(FL)は、サーバがクライアントのグループと協力してクライアントのデータにアクセスせずにグローバルモデルを学ぶ、分散機械学習パラダイムを提供する。
本稿では,CLIP誘導FL法(CLIP2FL)を提案する。
論文 参考訳(メタデータ) (2023-12-14T04:07:49Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - PFSL: Personalized & Fair Split Learning with Data & Label Privacy for
thin clients [0.5144809478361603]
PFSLは分散分割学習の新しいフレームワークであり、多数のシンクライアントが並列にトランスファー学習を行う。
クライアントモデルのパーソナライズを行うための軽量なステップを実装し,それぞれのデータ分布に対して高いパフォーマンスを実現する。
我々の精度は現在のアルゴリズムSLをはるかに上回り、いくつかの実生活ベンチマークにおける集中学習に非常に近い。
論文 参考訳(メタデータ) (2023-03-19T10:38:29Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Optimizing Server-side Aggregation For Robust Federated Learning via
Subspace Training [80.03567604524268]
クライアント間の非IIDデータ分散と中毒攻撃は、現実世界のフェデレーション学習システムにおける2つの大きな課題である。
サーバ側集約プロセスを最適化する汎用的なアプローチであるSmartFLを提案する。
本稿では,SmartFLの収束と一般化能力に関する理論的解析を行う。
論文 参考訳(メタデータ) (2022-11-10T13:20:56Z) - FedSL: Federated Split Learning on Distributed Sequential Data in
Recurrent Neural Networks [4.706263507340607]
フェデレートラーニング(FL)とスプリットラーニング(SL)はプライバシ保護マシンラーニング(ML)技術である。
既存のFLとSLのアプローチは、水平または垂直に分割されたデータに作用する。
本稿では,分散シーケンシャルデータに基づくモデルのトレーニングを行うための,新しいフェデレーション分割学習フレームワークであるFedSLを提案する。
論文 参考訳(メタデータ) (2020-11-06T04:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。