論文の概要: Robust Federated Personalised Mean Estimation for the Gaussian Mixture Model
- arxiv url: http://arxiv.org/abs/2504.19955v1
- Date: Mon, 28 Apr 2025 16:24:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.511312
- Title: Robust Federated Personalised Mean Estimation for the Gaussian Mixture Model
- Title(参考訳): ガウス混合モデルにおけるロバストな個人化平均推定
- Authors: Malhar A. Managoli, Vinod M. Prabhakaran, Suhas Diggavi,
- Abstract要約: 我々は、不均一なデータのパーソナライズとロバスト性の組み合わせについて検討する。
この広範な問題に動機付けられて、簡単なインスタンス化を定式化し、その難しさのいくつかを捉える。
誤差は, 破損したサンプルと破損しないサンプルの比率にほぼ線形に依存し, 同じ挙動で低い値を示すアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.091036814861793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning with heterogeneous data and personalization has received significant recent attention. Separately, robustness to corrupted data in the context of federated learning has also been studied. In this paper we explore combining personalization for heterogeneous data with robustness, where a constant fraction of the clients are corrupted. Motivated by this broad problem, we formulate a simple instantiation which captures some of its difficulty. We focus on the specific problem of personalized mean estimation where the data is drawn from a Gaussian mixture model. We give an algorithm whose error depends almost linearly on the ratio of corrupted to uncorrupted samples, and show a lower bound with the same behavior, albeit with a gap of a constant factor.
- Abstract(参考訳): 不均一なデータとパーソナライゼーションによるフェデレーション学習は近年注目されている。
また、フェデレート学習の文脈において、破損したデータに対する堅牢性も研究されている。
本稿では,不均一データのパーソナライズとロバスト性の組み合わせについて検討する。
この広範な問題に動機付けられて、簡単なインスタンス化を定式化し、その難しさのいくつかを捉える。
本稿では,ガウス混合モデルからデータを引き出すパーソナライズされた平均推定の問題に焦点をあてる。
誤差は, 破損したサンプルと破損しないサンプルの比率にほぼ線形に依存し, 定数係数の差があるにもかかわらず, 同じ挙動で低い値を示すアルゴリズムを提案する。
関連論文リスト
- Heterogeneity Matters even More in Distributed Learning: Study from Generalization Perspective [14.480713752871523]
(K)クライアントは、潜在的に異なるデータ分布に応じて、それぞれ(n)のトレーニングサンプルを独立して生成する。
集約されたモデルの一般化誤差に及ぼすクライアントのデータ分布の相違の影響について検討する。
クライアント間のデータの均一性の度合いが高くなるにつれて、バウンダリが小さくなることが示されている。
論文 参考訳(メタデータ) (2025-03-03T14:33:38Z) - Controlling for discrete unmeasured confounding in nonlinear causal models [6.255285109437089]
理論的には、観測データが潜在ガウス混合モデルの断片的なアフィン変換であるという仮定の下で、コンバウンディングが検出され、修正可能であることを示す。
我々は,このモデルを推定し,デコンウンディングを行うフローベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T22:50:08Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Performance Weighting for Robust Federated Learning Against Corrupted
Sources [1.76179873429447]
分散機械学習の計算パラダイムとしてフェデレートラーニングが登場している。
現実世界のアプリケーションでは、フェデレーションされた環境は、好意的なクライアントと悪意のあるクライアントの混在によって構成される。
局所重みの標準的グローバルアグリゲーション方式は, クライアントの破損の有無で非効率であることを示す。
論文 参考訳(メタデータ) (2022-05-02T20:01:44Z) - Federated Learning with Heterogeneous Data: A Superquantile Optimization
Approach [0.0]
我々は、不均一なデータを持つ個々のクライアントに対して、優れたパフォーマンスを確実に提供するように設計された、フェデレートされた学習フレームワークを提案する。
提案手法は,誤差の尾の統計を捉える水槽型学習訓練に基づく。
論文 参考訳(メタデータ) (2021-12-17T11:00:23Z) - Minimax Estimation for Personalized Federated Learning: An Alternative between FedAvg and Local Training? [31.831856922814502]
局所的なデータセットは、しばしば異なるが全く関係のない確率分布に由来する。
本稿では,パーソナライズド・フェデレーション・ラーニングの過大なリスクが,ミニマックスの観点からのデータ不均一性にどのように依存しているかを示す。
論文 参考訳(メタデータ) (2021-03-02T17:58:20Z) - Outlier-Robust Learning of Ising Models Under Dobrushin's Condition [57.89518300699042]
本研究では, サンプルの一定割合が逆向きに破壊されるような外乱条件下で, ドブルシンの条件を満たすIsingモデルの学習問題について検討する。
我々の主な成果は、ほぼ最適誤差保証を伴うこの問題に対して、計算効率のよい最初の頑健な学習アルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-02-03T18:00:57Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。