論文の概要: Handling Covariate Mismatch in Federated Linear Prediction
- arxiv url: http://arxiv.org/abs/2602.02083v1
- Date: Mon, 02 Feb 2026 13:29:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.166731
- Title: Handling Covariate Mismatch in Federated Linear Prediction
- Title(参考訳): 連成線形予測における共変量ミスマッチの扱い
- Authors: Alexis Ayme, Rémi Khellaf,
- Abstract要約: フェデレートラーニングは、生データを共有せずに予測モデルを協調的に訓練することを可能にする。
ほとんどの既存のメソッドは、すべてのクライアントが同じ機能を計測していると仮定します。
クライアントワイズMCARパターンの下で線形予測を形式化し、2つのモジュラーアプローチを開発する。
- 参考スコア(独自算出の注目度): 2.5782420501870296
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning enables institutions to train predictive models collaboratively without sharing raw data, addressing privacy and regulatory constraints. In the standard horizontal setting, clients hold disjoint cohorts of individuals and collaborate to learn a shared predictor. Most existing methods, however, assume that all clients measure the same features. We study the more realistic setting of covariate mismatch, where each client observes a different subset of features, which typically arises in multicenter collaborations with no prior agreement on data collection. We formalize learning a linear prediction under client-wise MCAR patterns and develop two modular approaches tailored to the dimensional regime and communication budget. In the low-dimensional setting, we propose a plug-in estimator that approximates the oracle linear predictor by aggregating sufficient statistics to estimate the covariance and cross-moment terms. In higher dimensions, we study an impute-then-regress strategy: (i) impute missing covariates using any exchangeability-preserving imputation procedure, and (ii) fit a ridge-regularized linear model on the completed data. We provide asymptotic and finite-sample learning rates for our predictors, explicitly characterizing their behaviour with the global dimension, the client-specific feature partition, and the distribution of samples across sites.
- Abstract(参考訳): フェデレートラーニングにより、組織は生データを共有せずに予測モデルを協調的に訓練し、プライバシーと規制の制約に対処できる。
標準的な水平的な設定では、クライアントは個人の不随伴コホートを保持し、共有予測器を学ぶために協力する。
しかし、既存のほとんどのメソッドは、すべてのクライアントが同じ機能を計測していると仮定します。
我々は、各クライアントが異なる機能のサブセットを観察する、より現実的な共変量ミスマッチ(covariate mismatch)について研究する。
クライアントワイドMCARパターンの下で線形予測を形式化し,次元構造と通信予算に合わせた2つのモジュラーアプローチを開発する。
低次元環境では,共分散項とクロスモーメント項を推定するために十分な統計情報を集約することにより,オラクル線形予測器を近似するプラグイン推定器を提案する。
より高次元において、我々は即興の回帰戦略を研究する。
一 交換可能性保存の計算方法を用いて欠落した変種
(II) 完了したデータにリッジ正規化線形モデルに適合する。
予測器に対する漸近的かつ有限サンプル学習率を提供し、その振る舞いをグローバル次元、クライアント固有の特徴分割、サイト間のサンプルの分布で明確に特徴付ける。
関連論文リスト
- Resource-Aware Aggregation and Sparsification in Heterogeneous Ensemble Federated Learning [0.9176056742068811]
フェデレートラーニング(FL)は、プライベートクライアントデータによる分散トレーニングを可能にする。
現在のアンサンブルに基づくFL法はモデル予測の多様性を捉えるには不十分である。
多様な計算能力を持つクライアントに適したグローバルアンサンブルベースのFLフレームワークである textbfSHEFL を提案する。
論文 参考訳(メタデータ) (2025-08-12T01:40:46Z) - Self-Interested Agents in Collaborative Machine Learning: An Incentivized Adaptive Data-Centric Framework [34.19393519060549]
本稿では,データ中心型協調機械学習のためのフレームワークを提案する。
アービターはエージェントからデータのバッチを収集し、機械学習モデルをトレーニングし、各エージェントにデータコントリビューションを反映する独自のモデルを提供する。
この設定は、共有データ影響モデルの更新を行うフィードバックループを確立し、結果のモデルが将来のデータ共有ポリシーをガイドする。
論文 参考訳(メタデータ) (2024-12-09T15:47:36Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Federated Learning with Uncertainty via Distilled Predictive
Distributions [14.828509220023387]
筆者らは,各ラウンドにおいて,各クライアントがパラメータや後部予測分布(PPD)だけでなく,後部分布を推定する不確実性を伴うフェデレーション学習の枠組みを提案する。
連邦学習における最近のベイズ的アプローチとは異なり、我々のアプローチでは各クライアントからサーバにパラメータの後方分布全体を送信する必要はない。
我々の手法は、クライアントの後部分布の形式やPDの形式など、制限的な仮定を一切行いません。
論文 参考訳(メタデータ) (2022-06-15T14:24:59Z) - Cooperative learning for multi-view analysis [2.368995563245609]
複数機能セットを用いた教師あり学習手法(ビュー)を提案する。
協調学習は、予測の通常の正方形エラー損失と、異なるデータビューからの予測に同意するよう奨励する"集積"ペナルティを組み合わせる。
シミュレーションおよび実データ例における提案手法の有効性について述べる。
論文 参考訳(メタデータ) (2021-12-23T03:13:25Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。