論文の概要: Federated Split Learning with Only Positive Labels for
resource-constrained IoT environment
- arxiv url: http://arxiv.org/abs/2307.13266v1
- Date: Tue, 25 Jul 2023 05:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 18:14:54.261847
- Title: Federated Split Learning with Only Positive Labels for
resource-constrained IoT environment
- Title(参考訳): リソース制約型IoT環境のための正のラベルのみを用いたFederated Split Learning
- Authors: Praveen Joshi, Chandra Thapa, Mohammed Hasanuzzaman, Ted Scully, and
Haithem Afli
- Abstract要約: 分散コラボレーティブ機械学習(DCML)は、ディープラーニングモデルをトレーニングするためのIoT(Internet of Things)ドメインにおいて、有望な方法である。
分割学習 (SFL) は, デバイスが限られた計算能力を持つ場合に, 効率的な学習とテストに最も適している。
SFPLは、リソース制約のIoTデバイスが正のラベル付きデータしか持たない場合、SFLよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 4.055662817794178
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributed collaborative machine learning (DCML) is a promising method in
the Internet of Things (IoT) domain for training deep learning models, as data
is distributed across multiple devices. A key advantage of this approach is
that it improves data privacy by removing the necessity for the centralized
aggregation of raw data but also empowers IoT devices with low computational
power. Among various techniques in a DCML framework, federated split learning,
known as splitfed learning (SFL), is the most suitable for efficient training
and testing when devices have limited computational capabilities. Nevertheless,
when resource-constrained IoT devices have only positive labeled data,
multiclass classification deep learning models in SFL fail to converge or
provide suboptimal results. To overcome these challenges, we propose splitfed
learning with positive labels (SFPL). SFPL applies a random shuffling function
to the smashed data received from clients before supplying it to the server for
model training. Additionally, SFPL incorporates the local batch normalization
for the client-side model portion during the inference phase. Our results
demonstrate that SFPL outperforms SFL: (i) by factors of 51.54 and 32.57 for
ResNet-56 and ResNet-32, respectively, with the CIFAR-100 dataset, and (ii) by
factors of 9.23 and 8.52 for ResNet-32 and ResNet-8, respectively, with
CIFAR-10 dataset. Overall, this investigation underscores the efficacy of the
proposed SFPL framework in DCML.
- Abstract(参考訳): 分散コラボレーティブ機械学習(DCML)は、ディープラーニングモデルをトレーニングするためのIoT(Internet of Things)ドメインにおける有望な方法である。
このアプローチの大きな利点は、生データの集中的な集約の必要性を取り除くことによってデータのプライバシを改善すると同時に、計算能力の低いIoTデバイスも強化することです。
DCMLフレームワークの様々なテクニックの中で、フェデレートされた分割学習(SFL)は、デバイスが限られた計算能力を持つ場合に、効率的なトレーニングとテストに最も適している。
それでも、リソース制約のIoTデバイスが正のラベル付きデータしか持たない場合、SFLのマルチクラス分類ディープラーニングモデルは、収束または準最適結果の提供に失敗する。
これらの課題を克服するために,正のラベル付き分割学習(SFPL)を提案する。
SFPLは、モデルトレーニングのためにサーバにそれを供給する前に、クライアントから受け取ったスマッシュデータにランダムシャッフル機能を適用する。
さらに、SFPLは推論フェーズ中にクライアント側モデル部分のローカルバッチ正規化を組み込む。
SFPLがSFLより優れていることを示す。
(i)cifar-100データセットのresnet-56およびresnet-32に対する51.54および32.57の係数
(i) それぞれ ResNet-32 と ResNet-8 の 9.23 と 8.52 の因子と CIFAR-10 データセットによる。
本研究は,DCMLにおけるSFPLフレームワークの有効性を裏付けるものである。
関連論文リスト
- Enhancing Federated Learning Convergence with Dynamic Data Queue and Data Entropy-driven Participant Selection [13.825031686864559]
Federated Learning(FL)は、エッジデバイス上でのコラボレーティブモデルトレーニングのための分散アプローチである。
本稿では,サーバ上のデータのグローバルサブセットを作成し,デバイス間で動的に分散することにより,FLの収束を改善する手法を提案する。
提案手法により,MNISTデータセットでは約5%,CIFAR-10では約18%,CIFAR-100では約20%の精度向上を実現した。
論文 参考訳(メタデータ) (2024-10-23T11:47:04Z) - Efficient Federated Intrusion Detection in 5G ecosystem using optimized BERT-based model [0.7100520098029439]
5Gは高度なサービスを提供し、IoT(Internet of Things)内のインテリジェントトランスポート、コネクテッドヘルスケア、スマートシティなどのアプリケーションをサポートする。
これらの進歩は、ますます高度なサイバー攻撃を伴う、重大なセキュリティ上の課題をもたらす。
本稿では,連合学習と大規模言語モデル(LLM)を用いた頑健な侵入検知システム(IDS)を提案する。
論文 参考訳(メタデータ) (2024-09-28T15:56:28Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
実験により、スパースベースラインに比べて通信やコンピューティングリソースをはるかに少なくし、精度を向上することが示された。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Multi-Edge Server-Assisted Dynamic Federated Learning with an Optimized
Floating Aggregation Point [51.47520726446029]
協調エッジ学習(CE-FL)は、分散機械学習アーキテクチャである。
CE-FLの過程をモデル化し,分析訓練を行った。
実世界のテストベッドから収集したデータを用いて,本フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-03-26T00:41:57Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。