論文の概要: A Theorem of the Alternative for Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2103.01901v1
- Date: Tue, 2 Mar 2021 17:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:15:19.144629
- Title: A Theorem of the Alternative for Personalized Federated Learning
- Title(参考訳): 個人化フェデレーション学習のための選択肢の理論
- Authors: Shuxiao Chen, Qinqing Zheng, Qi Long, Weijie J. Su
- Abstract要約: 個人化された連合学習の過剰なリスクが、ミニマックスの観点からデータの不均一性に依存することを示す。
その結果,クライアントサイドの不均質性に適応する難易度(無限次元)問題は,単純な二分決定問題に還元できることがわかった。
- 参考スコア(独自算出の注目度): 19.499120576896228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A widely recognized difficulty in federated learning arises from the
statistical heterogeneity among clients: local datasets often come from
different but not entirely unrelated distributions, and personalization is,
therefore, necessary to achieve optimal results from each individual's
perspective. In this paper, we show how the excess risks of personalized
federated learning with a smooth, strongly convex loss depend on data
heterogeneity from a minimax point of view. Our analysis reveals a surprising
theorem of the alternative for personalized federated learning: there exists a
threshold such that (a) if a certain measure of data heterogeneity is below
this threshold, the FedAvg algorithm [McMahan et al., 2017] is minimax optimal;
(b) when the measure of heterogeneity is above this threshold, then doing pure
local training (i.e., clients solve empirical risk minimization problems on
their local datasets without any communication) is minimax optimal. As an
implication, our results show that the presumably difficult
(infinite-dimensional) problem of adapting to client-wise heterogeneity can be
reduced to a simple binary decision problem of choosing between the two
baseline algorithms. Our analysis relies on a new notion of algorithmic
stability that takes into account the nature of federated learning.
- Abstract(参考訳): フェデレートラーニングの難しさは、クライアント間の統計的異質性から広く認識されている: ローカルデータセットは、しばしば異なるが、全く関係のない分布から来ており、パーソナライゼーションは、各個人の観点から最適な結果を達成するために必要である。
本稿では,スムースで強い凸損失を伴う個人化連合学習の余剰リスクが,ミニマックスの観点からのデータ不均一性にどのように依存するかを示す。
我々の分析は、個人化学習の代替案の驚くべき定理を明らかにしている: (a) あるデータ不均一性の測定値がこのしきい値以下である場合、FedAvgアルゴリズム [McMahan et al., 2017] は極小最適である; (b) 不均一性の測定値がこのしきい値以上である場合、純粋なローカルトレーニングを行う(つまり、クライアントがローカルデータセット上で、通信なしで経験的リスク最小化問題を解く)。
その結果,クライアントワイドの不均一性に適応する難解な(無限次元)問題は,2つのベースラインアルゴリズム間で選択する単純な二項決定問題に還元できることが示唆された。
我々の分析は、連帯学習の性質を考慮したアルゴリズム安定性という新しい概念に依存している。
関連論文リスト
- Byzantine-resilient Federated Learning Employing Normalized Gradients on Non-IID Datasets [23.640506243685863]
実践的連合学習(FLNGA)では、悪意のある攻撃やデータ不均一性の存在が学習プロセスにバイアスをもたらすことが多い。
本稿では、アップロードされた局所勾配をアグリゲーションの前に正規化する正規化勾配単位(Fed-M)モデルを提案し、$mathcalO(pM)$を達成した。
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - Federated Minimax Optimization with Client Heterogeneity [11.558008138030845]
ミニマックス計算は、GANのような先進的な近代的応用に注目が集まっている。
そこで我々は,ローカルSGDAのような設定や既存手法を前提とした汎用のミニマックスフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-08T18:33:55Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Resource-constrained Federated Edge Learning with Heterogeneous Data:
Formulation and Analysis [8.863089484787835]
ヘテロジニアスデータによる不均一な統計的課題を解決するために, 分散されたニュートン型ニュートン型トレーニングスキームであるFedOVAを提案する。
FedOVAはマルチクラス分類問題をより単純なバイナリ分類問題に分解し、アンサンブル学習を用いてそれぞれの出力を結合する。
論文 参考訳(メタデータ) (2021-10-14T17:35:24Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。