論文の概要: Federated Learning Under Restricted User Availability
- arxiv url: http://arxiv.org/abs/2309.14176v1
- Date: Mon, 25 Sep 2023 14:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 15:09:02.699592
- Title: Federated Learning Under Restricted User Availability
- Title(参考訳): 制限付きユーザアベイラビリティ下でのフェデレーション学習
- Authors: Periklis Theodoropoulos, Konstantinos E. Nikolakakis and Dionysis
Kalogerias
- Abstract要約: ユーザの不均一な可用性や参加は、悪影響や環境のために避けられない。
本稿では,頻度の低いユーザや制限されたユーザによるデータへの制限的参加を効果的に捉え,緩和するFL問題の新たな定式化を提案する。
提案手法は, 標準FLと比較して, 性能が有意に向上したことを示す。
- 参考スコア(独自算出の注目度): 3.0846824529023387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a decentralized machine learning framework that
enables collaborative model training while respecting data privacy. In various
applications, non-uniform availability or participation of users is unavoidable
due to an adverse or stochastic environment, the latter often being
uncontrollable during learning. Here, we posit a generic user selection
mechanism implementing a possibly randomized, stationary selection policy,
suggestively termed as a Random Access Model (RAM). We propose a new
formulation of the FL problem which effectively captures and mitigates limited
participation of data originating from infrequent, or restricted users, at the
presence of a RAM. By employing the Conditional Value-at-Risk (CVaR) over the
(unknown) RAM distribution, we extend the expected loss FL objective to a
risk-aware objective, enabling the design of an efficient training algorithm
that is completely oblivious to the RAM, and with essentially identical
complexity as FedAvg. Our experiments on synthetic and benchmark datasets show
that the proposed approach achieves significantly improved performance as
compared with standard FL, under a variety of setups.
- Abstract(参考訳): Federated Learning(FL)は、データプライバシを尊重しながら協調的なモデルトレーニングを可能にする分散機械学習フレームワークである。
様々なアプリケーションにおいて、ユーザの不均一な可用性や参加は、悪いあるいは確率的な環境のために避けられない。
本稿では,ランダムアクセスモデル(ram)として提案される,確率的かつ定常的な選択ポリシーを実装する汎用ユーザ選択機構を仮定する。
そこで本研究では,RAM の存在下で,頻度の低いユーザや制限されたユーザからの限られた参加を効果的に捉え,緩和する FL 問題の新たな定式化を提案する。
CVaR(Conditional Value-at-Risk)を(未知の)RAM分布に導入することにより、予測損失FL目標をリスク認識対象に拡張し、RAMに完全に依存せず、基本的にFedAvgと同じ複雑さを持つ効率的なトレーニングアルゴリズムの設計を可能にする。
合成およびベンチマークデータセットを用いた実験により, 提案手法は, 標準FLと比較して, 様々な設定で性能を著しく向上することを示した。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Learn More by Using Less: Distributed Learning with Energy-Constrained Devices [3.730504020733928]
Federated Learning(FL)は、分散モデルトレーニングのソリューションとして、分散化されたプライバシ保護デバイスに登場した。
本稿では,電池に制約のあるデバイス上でのクライアント選択とトレーニング作業の最適化を目的とした,エネルギーを意識したFLフレームワークであるLeanFedを提案する。
論文 参考訳(メタデータ) (2024-12-03T09:06:57Z) - Federated Learning for Misbehaviour Detection with Variational Autoencoders and Gaussian Mixture Models [0.2999888908665658]
Federated Learning (FL)は、機械学習(ML)モデルを協調的にトレーニングするための魅力的なアプローチになっている。
本研究は、車載環境における潜在的な不適切な行動を特定するための、新しい教師なしFLアプローチを提案する。
当社は、モデルアグリゲーションの目的のために、パブリッククラウドサービスのコンピューティング能力を活用しています。
論文 参考訳(メタデータ) (2024-05-16T08:49:50Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - UFed-GAN: A Secure Federated Learning Framework with Constrained
Computation and Unlabeled Data [50.13595312140533]
本稿では,UFed-GAN: Unsupervised Federated Generative Adversarial Networkを提案する。
実験により,プライバシを保ちながら,限られた計算資源とラベルなしデータに対処するUFed-GANの強い可能性を示す。
論文 参考訳(メタデータ) (2023-08-10T22:52:13Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semi-Supervised Federated Learning with non-IID Data: Algorithm and
System Design [42.63120623012093]
フェデレートラーニング(FL)は、エッジデバイス(またはクライアント)がデータをローカルに保持し、同時に共有グローバルモデルをトレーニングすることを可能にする。
クライアントのローカルトレーニングデータの分布は、非独立に均等に分散されている(非IID)
本稿では、FLにおけるデータ可用性と非IIDの問題を解決することを目的とした、堅牢な半教師付きFLシステム設計を提案する。
論文 参考訳(メタデータ) (2021-10-26T03:41:48Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。