論文の概要: Weighted Sampled Split Learning (WSSL): Balancing Privacy, Robustness,
and Fairness in Distributed Learning Environments
- arxiv url: http://arxiv.org/abs/2310.18479v1
- Date: Fri, 27 Oct 2023 20:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 18:19:50.075325
- Title: Weighted Sampled Split Learning (WSSL): Balancing Privacy, Robustness,
and Fairness in Distributed Learning Environments
- Title(参考訳): 重み付きサンプル分割学習(wssl) : 分散学習環境におけるプライバシ,堅牢性,公平性のバランス
- Authors: Manish Osti, Aashray Thakuri, Basheer Qolomany, and Aos Mulahuwaish
- Abstract要約: Weighted Sampled Split Learning (WSSL)は、分散機械学習システムのプライバシ、堅牢性、公正性を向上するための革新的なフレームワークである。
WSSLの有効性の中心は、加重サンプリングの利用である。
モデル精度の向上,堅牢性の向上,多様なクライアント構成に対する公正性の維持という,3つの主なメリットを観察した。
- 参考スコア(独自算出の注目度): 0.22499166814992438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents Weighted Sampled Split Learning (WSSL), an innovative
framework tailored to bolster privacy, robustness, and fairness in distributed
machine learning systems. Unlike traditional approaches, WSSL disperses the
learning process among multiple clients, thereby safeguarding data
confidentiality. Central to WSSL's efficacy is its utilization of weighted
sampling. This approach ensures equitable learning by tactically selecting
influential clients based on their contributions. Our evaluation of WSSL
spanned various client configurations and employed two distinct datasets: Human
Gait Sensor and CIFAR-10. We observed three primary benefits: heightened model
accuracy, enhanced robustness, and maintained fairness across diverse client
compositions. Notably, our distributed frameworks consistently surpassed
centralized counterparts, registering accuracy peaks of 82.63% and 75.51% for
the Human Gait Sensor and CIFAR-10 datasets, respectively. These figures
contrast with the top accuracies of 81.12% and 58.60% achieved by centralized
systems. Collectively, our findings champion WSSL as a potent and scalable
successor to conventional centralized learning, marking it as a pivotal stride
forward in privacy-focused, resilient, and impartial distributed machine
learning.
- Abstract(参考訳): 本研究では、分散機械学習システムにおけるプライバシ、ロバスト性、公正性を向上するための革新的なフレームワークであるWeighted Sampled Split Learning (WSSL)を提案する。
従来のアプローチとは異なり、WSSLは学習プロセスを複数のクライアントに分散させ、データの機密性を保護する。
WSSLの有効性の中心は、加重サンプリングの利用である。
このアプローチは、貢献に基づいて影響力のあるクライアントを戦術的に選択することで、公平な学習を保証する。
wsslの評価は様々なクライアント構成にまたがり、人間の歩行センサーとcifar-10という2つの異なるデータセットを用いた。
モデル精度の向上,堅牢性の向上,多様なクライアント構成に対する公正性の維持という,3つの主なメリットを観察した。
特に、我々の分散フレームワークは、Human Gait SensorとCIFAR-10データセットでそれぞれ82.63%と75.51%の精度のピークを登録し、一貫して集中的なフレームワークを上回った。
これらの数字は、中央集権システムによって達成された81.12%と58.60%のトップアキュラシーとは対照的である。
私たちの発見は、WSSLを従来の集中型学習の強力な、スケーラブルな後継として支持し、プライバシを重視し、レジリエントで、公平な分散機械学習における重要な一歩と位置づけています。
関連論文リスト
- FedClust: Tackling Data Heterogeneity in Federated Learning through Weight-Driven Client Clustering [26.478852701376294]
フェデレートラーニング(Federated Learning, FL)は、分散機械学習のパラダイムである。
FLの主な課題の1つは、クライアントデバイスにまたがる不均一なデータ分散の存在である。
我々は,局所モデル重みとクライアントのデータ分布の相関を利用したCFLの新しい手法であるFedClustを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:16Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Federated Learning Under Intermittent Client Availability and
Time-Varying Communication Constraints [29.897785907692644]
フェデレートされた学習システムは、断続的なクライアントの可用性および/または時間変化の通信制約を伴う設定で動作する。
可用性に依存したクライアント選択戦略を学習する非バイアスアルゴリズムであるF3ASTを提案する。
CIFAR100とシェークスピアでそれぞれ186%,FedAvgは8%,FedAdamは7%であった。
論文 参考訳(メタデータ) (2022-05-13T16:08:58Z) - Precision-Weighted Federated Learning [1.8160945635344528]
フェデレート学習環境で訓練されたモデルのパラメータの重み付け平均を計算する際に,勾配のばらつきを考慮した新しいアルゴリズムを提案する。
本手法は,2つの異なるデータ分割戦略 (IID/non-IID) を持つ標準画像分類データセットを用いて,資源制約環境下での手法の性能と速度を測定した。
論文 参考訳(メタデータ) (2021-07-20T17:17:10Z) - Unifying Distillation with Personalization in Federated Learning [1.8262547855491458]
Federated Learning(FL)は、クライアントがデータを共有せずに中央アグリゲータを通じて共同作業モデルを学習する分散プライバシ保護学習技術である。
この設定では、すべてのクライアントが単一の共通予測器(FedAvg)を学習する。
本稿では,2段階のパーソナライズされた学習アルゴリズムPersFLを用いてこの問題に対処する。
第1段階では、PersFLはFLトレーニングフェーズにおいて各クライアントの最適な教師モデルを見つけ、第2段階では、PersFLは有用な知識を抽出する。
論文 参考訳(メタデータ) (2021-05-31T17:54:29Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。