論文の概要: SplitFed resilience to packet loss: Where to split, that is the question
- arxiv url: http://arxiv.org/abs/2307.13851v1
- Date: Tue, 25 Jul 2023 22:54:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:17:07.251483
- Title: SplitFed resilience to packet loss: Where to split, that is the question
- Title(参考訳): SplitFedのパケットロスに対するレジリエンス:どこで分割するか、それが問題だ
- Authors: Chamani Shiranthika, Zahra Hafezi Kafshgari, Parvaneh Saeedi, Ivan V.
Baji\'c
- Abstract要約: Split Federated Learning (SFL)は、FLにおける各クライアントに必要な計算パワーを削減し、プライバシを維持しながらSLを並列化することを目的としている。
本稿では,SFLの通信リンクにおけるパケット損失に対する堅牢性について検討する。
ヒト胚画像のセグメンテーションモデルを用いて実験を行い、より深い分割点の統計的に有意な利点を示す。
- 参考スコア(独自算出の注目度): 27.29876880765472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized machine learning has broadened its scope recently with the
invention of Federated Learning (FL), Split Learning (SL), and their hybrids
like Split Federated Learning (SplitFed or SFL). The goal of SFL is to reduce
the computational power required by each client in FL and parallelize SL while
maintaining privacy. This paper investigates the robustness of SFL against
packet loss on communication links. The performance of various SFL aggregation
strategies is examined by splitting the model at two points -- shallow split
and deep split -- and testing whether the split point makes a statistically
significant difference to the accuracy of the final model. Experiments are
carried out on a segmentation model for human embryo images and indicate the
statistically significant advantage of a deeper split point.
- Abstract(参考訳): 分散機械学習は、最近、フェデレートラーニング(FL)、スプリットラーニング(SL)、そしてそれらのハイブリッドであるSplit Federated Learning(SplitFed、SFL)の発明により、その範囲を広げた。
SFLの目標は、FL内の各クライアントに必要な計算パワーを削減し、プライバシーを維持しながらSLを並列化することである。
本稿では,SFLの通信リンクにおけるパケット損失に対する堅牢性について検討する。
各種SFLアグリゲーション戦略の性能は, モデルが浅分割と深分割の2点で分割し, 分割点が最終モデルの精度に統計的に有意な差を与えるかどうかを調べることによって検証する。
ヒト胚画像のセグメンテーションモデルを用いて実験を行い、より深い分割点の統計的に有意な利点を示す。
関連論文リスト
- FuseFL: One-Shot Federated Learning through the Lens of Causality with Progressive Model Fusion [48.90879664138855]
ワンショットフェデレートラーニング(OFL)は、訓練されたモデルを1回だけ集約することで、FLにおける通信コストを大幅に削減する。
しかし、高度なOFL法の性能は通常のFLよりもはるかに遅れている。
本稿では,FuseFL と呼ばれる,高い性能と低通信・ストレージコストを有する新しい学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T09:07:10Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Optimizing Split Points for Error-Resilient SplitFed Learning [2.2530496464901106]
SplitFedは、FL内の個々のクライアントの計算負担を最小限に抑え、プライバシーを維持しながらSLを並列化する。
本研究では,SplitFedのパケット損失に対するモデル分割点のレジリエンスについて検討した。
論文 参考訳(メタデータ) (2024-05-29T19:03:27Z) - Convergence Analysis of Split Federated Learning on Heterogeneous Data [10.61370409320618]
Split Learning(SFL)は、複数のクライアント間で協調的なモデルトレーニングを行うための、最近の分散アプローチである。
SFLでは、グローバルモデルは通常2つの部分に分割され、クライアントは1つの部分を並行的に訓練し、もう一方は他方を訓練する。
本研究では,SFLの収束解析を行い,不均一なデータに対する凸性および汎用性について述べる。
論文 参考訳(メタデータ) (2024-02-23T07:59:23Z) - Have Your Cake and Eat It Too: Toward Efficient and Accurate Split Federated Learning [25.47111107054497]
Split Federated Learning (SFL)は、AIoTシステムで有望である。
SFLは低い推測精度と低い効率の課題に悩まされている。
本稿では,Sliding Split Federated Learning (S$2$FL) という新しいSFL手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T05:09:50Z) - Convergence Analysis of Sequential Federated Learning on Heterogeneous Data [5.872735527071425]
連立学習(FL)では、複数のクライアント間で共同トレーニングを行う方法が2つある:i)並列FL(PFL)、i)クライアントが並列にモデルを訓練するFL(SFL)、i)クライアントが逐次的にモデルを訓練するFL(SFL)である。
本稿では,不均一なデータに対するSFLの収束保証がまだ不十分であることを示す。
実験により,SFLはデバイス間設定において極めて不均一なデータ上でPFLより優れることを示した。
論文 参考訳(メタデータ) (2023-11-06T14:48:51Z) - Hierarchical Personalized Federated Learning Over Massive Mobile Edge
Computing Networks [95.39148209543175]
大規模MECネットワーク上でPFLをデプロイするアルゴリズムである階層型PFL(HPFL)を提案する。
HPFLは、最適帯域割り当てを共同で決定しながら、トレーニング損失最小化とラウンドレイテンシ最小化の目的を組み合わせる。
論文 参考訳(メタデータ) (2023-03-19T06:00:05Z) - Semi-Synchronous Personalized Federated Learning over Mobile Edge
Networks [88.50555581186799]
我々は,モバイルエッジネットワーク上での半同期パーソナライズフェデレーション(PerFedS$2$)と呼ばれる半同期PFLアルゴリズムを提案する。
我々は、グローバルラウンド当たりの参加者数とラウンド数の観点から、PerFedS2の収束率の上限を導出する。
PerFedS2はトレーニング時間を節約し、トレーニング損失の収束を保証する。
論文 参考訳(メタデータ) (2022-09-27T02:12:43Z) - Predictive GAN-powered Multi-Objective Optimization for Hybrid Federated
Split Learning [56.125720497163684]
無線ネットワークにおけるハイブリッド・フェデレーション・スプリット・ラーニング・フレームワークを提案する。
ラベル共有のないモデル分割のための並列計算方式を設計し,提案方式が収束速度に与える影響を理論的に解析する。
論文 参考訳(メタデータ) (2022-09-02T10:29:56Z) - Achieving Personalized Federated Learning with Sparse Local Models [75.76854544460981]
フェデレートラーニング(FL)は異種分散データに対して脆弱である。
この問題に対処するため、個人ごとに専用のローカルモデルを作成するためにパーソナライズされたFL(PFL)が提案された。
既存のPFLソリューションは、異なるモデルアーキテクチャに対する不満足な一般化を示すか、あるいは膨大な余分な計算とメモリを犠牲にするかのどちらかである。
我々は、パーソナライズされたスパースマスクを用いて、エッジ上のスパースローカルモデルをカスタマイズする新しいPFLスキームFedSpaを提案する。
論文 参考訳(メタデータ) (2022-01-27T08:43:11Z) - Splitfed learning without client-side synchronization: Analyzing
client-side split network portion size to overall performance [4.689140226545214]
Federated Learning (FL)、Split Learning (SL)、SplitFed Learning (SFL)は、分散機械学習における最近の3つの発展である。
本稿では,クライアント側モデル同期を必要としないSFLについて検討する。
MNISTテストセットでのMulti-head Split Learningよりも1%-2%の精度しか得られない。
論文 参考訳(メタデータ) (2021-09-19T22:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。