論文の概要: Privacy and Efficiency of Communications in Federated Split Learning
- arxiv url: http://arxiv.org/abs/2301.01824v1
- Date: Wed, 4 Jan 2023 21:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:44:30.006291
- Title: Privacy and Efficiency of Communications in Federated Split Learning
- Title(参考訳): 連合分割学習におけるプライバシーとコミュニケーションの効率
- Authors: Zongshun Zhang, Andrea Pinto, Valeria Turina, Flavio Esposito and
Ibrahim Matta
- Abstract要約: 我々は、両方の効率性とプライバシの利点を組み合わせた、新しいハイブリッドなFederated Split Learningアーキテクチャを提案する。
我々の評価は,分散学習システムを実行する各クライアントが必要とする処理パワーを,ハイブリッドなフェデレート・スプリット・ラーニング・アプローチがいかに削減できるかを示すものである。
また、ディープラーニングのプライバシ推論攻撃に対するアプローチのレジリエンスについても論じ、最近提案された他のベンチマークと比較した。
- 参考スコア(独自算出の注目度): 5.902531418542073
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Everyday, large amounts of sensitive data \sai{is} distributed across mobile
phones, wearable devices, and other sensors. Traditionally, these enormous
datasets have been processed on a single system, with complex models being
trained to make valuable predictions. Distributed machine learning techniques
such as Federated and Split Learning have recently been developed to protect
user \sai{data and} privacy better while ensuring high performance. Both of
these distributed learning architectures have advantages and disadvantages. In
this paper, we examine these tradeoffs and suggest a new hybrid Federated Split
Learning architecture that combines the efficiency and privacy benefits of
both. Our evaluation demonstrates how our hybrid Federated Split Learning
approach can lower the amount of processing power required by each client
running a distributed learning system, reduce training and inference time while
keeping a similar accuracy. We also discuss the resiliency of our approach to
deep learning privacy inference attacks and compare our solution to other
recently proposed benchmarks.
- Abstract(参考訳): 毎日、大量の機密データ \sai{is} が携帯電話、ウェアラブルデバイス、その他のセンサーに分散している。
伝統的に、これらの巨大なデータセットは単一のシステムで処理され、複雑なモデルは貴重な予測を行うために訓練されている。
FederatedやSplit Learningといった分散機械学習技術は、ハイパフォーマンスを確保しつつ、ユーザの \sai{data and} のプライバシーをよりよく保護するために開発されている。
これらの分散学習アーキテクチャには長所と短所がある。
本稿では,これらのトレードオフを検証し,両者の効率性とプライバシのメリットを組み合わせた,新しいハイブリッドなFederated Split Learningアーキテクチャを提案する。
本評価は,分散学習システムを実行する各クライアントが必要とする処理パワーを削減し,類似した精度を維持しつつ,トレーニングや推論時間を短縮する方法を示す。
また、ディープラーニングによるプライバシー推論攻撃に対する我々のアプローチの弾力性についても論じ、最近提案された他のベンチマークと比較する。
関連論文リスト
- Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - DQRE-SCnet: A novel hybrid approach for selecting users in Federated
Learning with Deep-Q-Reinforcement Learning based on Spectral Clustering [1.174402845822043]
実世界の機密データに基づく機械学習モデルは、医療スクリーニングから病気の発生、農業、産業、防衛科学など幅広い分野で進歩している。
多くのアプリケーションにおいて、学習参加者のコミュニケーションラウンドは、独自のプライベートデータセットを収集し、実際のデータに対して詳細な機械学習モデルを教え、これらのモデルを使用することの利点を共有することの恩恵を受ける。
既存のプライバシとセキュリティ上の懸念から、ほとんどの人はトレーニング用の機密データ共有を回避している。各ユーザがローカルデータを中央サーバにデモしない限り、フェデレートラーニングは、さまざまなパーティが共用データ上で機械学習アルゴリズムをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2021-11-07T15:14:29Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。