論文の概要: Variational Gaussian Mixture Manifold Models for Client-Specific Federated Personalization
- arxiv url: http://arxiv.org/abs/2509.10521v1
- Date: Thu, 04 Sep 2025 01:28:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.780482
- Title: Variational Gaussian Mixture Manifold Models for Client-Specific Federated Personalization
- Title(参考訳): クライアント特異的なフェデレーションパーソナライゼーションのための変分ガウス混合多様体モデル
- Authors: Sai Puppala, Ismail Hossain, Md Jahangir Alam, Sajedul Talukder,
- Abstract要約: VGM$2$は、クライアント固有のパラメトリックUMAP埋め込みを学習する幾何学中心のPFLフレームワークである。
各クライアントは、マーカーの重み、手段、およびばらつきに対してディリクレ-ノルマル-逆-ガンマの後部を保持する。
VGM$2$は、強いベースラインに比べて、競争力または優れたテストF1スコアを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized federated learning (PFL) often fails under label skew and non-stationarity because a single global parameterization ignores client-specific geometry. We introduce VGM$^2$ (Variational Gaussian Mixture Manifold), a geometry-centric PFL framework that (i) learns client-specific parametric UMAP embeddings, (ii) models latent pairwise distances with mixture relation markers for same and different class pairs, and (iii) exchanges only variational, uncertainty-aware marker statistics. Each client maintains a Dirichlet-Normal-Inverse-Gamma (Dir-NIG) posterior over marker weights, means, and variances; the server aggregates via conjugate moment matching to form global priors that guide subsequent rounds. We prove that this aggregation minimizes the summed reverse Kullback-Leibler divergence from client posteriors within the conjugate family, yielding stability under heterogeneity. We further incorporate a calibration term for distance-to-similarity mapping and report communication and compute budgets. Across eight vision datasets with non-IID label shards, VGM$^2$ achieves competitive or superior test F1 scores compared to strong baselines while communicating only small geometry summaries. Privacy is strengthened through secure aggregation and optional differential privacy noise, and we provide a membership-inference stress test. Code and configurations will be released to ensure full reproducibility.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、単一のグローバルパラメータ化がクライアント固有の幾何学を無視しているため、ラベルスキューや非定常性の下で失敗することが多い。
幾何中心のPFLフレームワークであるVGM$^2$(変数ガウス混合多様体)を紹介する。
i) クライアント固有のパラメトリック UMAP 埋め込みを学習する。
二 同一類対と異なる類対の混合関係マーカーを用いた潜在対距離モデル、及び
(iii)変分的かつ不確実性を考慮したマーカー統計のみを交換する。
各クライアントはダイリクレ・ノルマル・インバース・ガンマ(Dir-NIG)の後部マーカーの重み、手段、ばらつきを保持しており、サーバは共役モーメントマッチングを介して集約し、その後のラウンドを案内するグローバルなプリエントを形成する。
このアグリゲーションは、共役族内のクライアント後部からの累積逆クルバック・リーブラー分岐を最小化し、不均一性の下で安定であることを示す。
さらに、距離-相似マッピングの校正用語を取り入れ、通信や計算予算の報告を行う。
非IIDラベルシャードを持つ8つの視覚データセットのうち、VGM$^2$は、小さな幾何学的サマリーのみを通信しながら、強いベースラインに比べて、競争力または優れたテストF1スコアを達成する。
プライバシーは、セキュアなアグリゲーションと任意の差分プライバシーノイズによって強化され、メンバーシップ推論ストレステストを提供する。
完全な再現性を保証するため、コードと構成がリリースされる。
関連論文リスト
- Collaborative and Efficient Personalization with Mixtures of Adaptors [5.195669033269619]
Federated Low-Rank Adaptive Learning (FLoRAL)は、低ランクのアダプタを混在させることで、クライアントがグループをパーソナライズすることを可能にする。
FLoRALは、パーソナライズされたフェデレーション学習をマルチタスク学習問題として活用するモデルパラメータ化である。
論文 参考訳(メタデータ) (2024-10-04T15:11:15Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Federated Contrastive Learning for Personalized Semantic Communication [55.46383524190467]
我々は,パーソナライズされたセマンティックコミュニケーションを支援することを目的とした,協調型コントラスト学習フレームワークを設計する。
FedCLは、複数のクライアントにわたるローカルセマンティックエンコーダと、基地局が所有するグローバルセマンティックデコーダの協調トレーニングを可能にする。
分散クライアント間の異種データセットから生じるセマンティック不均衡問題に対処するために,コントラスト学習を用いてセマンティックセントロイドジェネレータを訓練する。
論文 参考訳(メタデータ) (2024-06-13T14:45:35Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Privacy and Accuracy Implications of Model Complexity and Integration in Heterogeneous Federated Learning [8.842172558292027]
分散機械学習のプライバシ保護ソリューションとしてフェデレートラーニング(FL)が提案されている。
近年の研究では、クライアントデータのプライバシを損なうことができるMIA攻撃の影響が指摘されている。
論文 参考訳(メタデータ) (2023-11-29T15:54:15Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Global Convergence of Federated Learning for Mixed Regression [17.8469597916875]
本稿では,クライアントがクラスタ構造を示す場合のフェデレートラーニングにおけるモデルトレーニングの問題について検討する。
我々の分析における重要な革新はクラスタリングに関する一様見積であり、一般的な概念クラスを束縛することでVC次元を束縛することで証明する。
論文 参考訳(メタデータ) (2022-06-15T03:38:42Z) - Federated Geometric Monte Carlo Clustering to Counter Non-IID Datasets [5.265938474748481]
フェデレートラーニングにより、クライアントはサイズや規制のために交換できないデータセット上でモデルを協調的にトレーニングすることができる。
従来の研究は、非IIDラベルを中心に、非IIDデータセットのトレーニング精度への影響を緩和しようとした。
我々は,集中サーバが集約可能なクライアントモデルを集約する新しいフレームワークであるFedGMCCを提案する。
論文 参考訳(メタデータ) (2022-04-23T08:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。