論文の概要: The Gaussian-Head OFL Family: One-Shot Federated Learning from Client Global Statistics
- arxiv url: http://arxiv.org/abs/2602.01186v1
- Date: Sun, 01 Feb 2026 12:17:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.651373
- Title: The Gaussian-Head OFL Family: One-Shot Federated Learning from Client Global Statistics
- Title(参考訳): Gaussian-Head OFL family: クライアントのグローバル統計からのワンショット学習
- Authors: Fabio Turazza, Marco Picone, Marco Mamei,
- Abstract要約: ワンショットフェデレーション学習(OFL)は、単一ラウンドでのコミュニケーションを減らすことで制限を緩和する。
本稿では,事前学習した埋め込みのクラス条件のガウス性を考慮した一発フェデレーション方式であるGH-OFL(Gaussian-Head OFL)ファミリを紹介する。
GH-OFL法は、厳密なデータのないまま、強い非IIDスキューの下で最先端のロバスト性と精度を提供する。
- 参考スコア(独自算出の注目度): 3.861590545620626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical Federated Learning relies on a multi-round iterative process of model exchange and aggregation between server and clients, with high communication costs and privacy risks from repeated model transmissions. In contrast, one-shot federated learning (OFL) alleviates these limitations by reducing communication to a single round, thereby lowering overhead and enhancing practical deployability. Nevertheless, most existing one-shot approaches remain either impractical or constrained, for example, they often depend on the availability of a public dataset, assume homogeneous client models, or require uploading additional data or model information. To overcome these issues, we introduce the Gaussian-Head OFL (GH-OFL) family, a suite of one-shot federated methods that assume class-conditional Gaussianity of pretrained embeddings. Clients transmit only sufficient statistics (per-class counts and first/second-order moments) and the server builds heads via three components: (i) Closed-form Gaussian heads (NB/LDA/QDA) computed directly from the received statistics; (ii) FisherMix, a linear head with cosine margin trained on synthetic samples drawn in an estimated Fisher subspace; and (iii) Proto-Hyper, a lightweight low-rank residual head that refines Gaussian logits via knowledge distillation on those synthetic samples. In our experiments, GH-OFL methods deliver state-of-the-art robustness and accuracy under strong non-IID skew while remaining strictly data-free.
- Abstract(参考訳): 古典的フェデレートラーニングは、モデル交換とサーバとクライアント間のアグリゲーションのマルチラウンド反復プロセスに依存しており、通信コストと繰り返しモデル送信によるプライバシーリスクが高い。
対照的に、ワンショットフェデレーションラーニング(OFL)は、単一のラウンドへの通信を減らし、オーバーヘッドを減らし、実用的なデプロイ性を向上させることで、これらの制限を緩和する。
しかし、既存のワンショットアプローチのほとんどは実用的あるいは制約的であり、パブリックデータセットの可用性に依存したり、同質なクライアントモデルを仮定したり、追加のデータやモデル情報をアップロードする必要のある場合が多い。
これらの問題を克服するために,事前に訓練された埋め込みのクラス条件のガウス性を考慮したワンショットフェデレーション方式であるGH-OFL(Gaussian-Head OFL)ファミリを導入する。
クライアントは十分な統計(クラス単位のカウントと第1/第2次モーメント)しか送信せず、サーバは3つのコンポーネントを使ってヘッダを構築する。
一 受信した統計から直接計算した閉形式ガウスヘッド(NB/LDA/QDA)
二 推定フィッシャー部分空間に引かれた合成試料を訓練した余剰余剰を有する直線ヘッドのFisherMix
(iii)プロトハイパー(Proto-Hyper)は、これらの合成試料の知識蒸留によりガウシアンロジットを精製する軽量の低ランク残基である。
我々の実験では、GH-OFL法は、厳密なデータのないまま、強い非IIDスキューの下で、最先端のロバスト性と精度を提供する。
関連論文リスト
- Data-Free Black-Box Federated Learning via Zeroth-Order Gradient Estimation [5.342190657553561]
フェデレートラーニング(FL)は、分散クライアントが中央サーバのオーケストレーションの下でグローバルモデルを協調的にトレーニングすることを可能にする。
ゼロ階勾配推定(FedZGE)によるデータフリーでブラックボックスなFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-08T03:00:01Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedAnchor: Enhancing Federated Semi-Supervised Learning with Label
Contrastive Loss for Unlabeled Clients [19.3885479917635]
Federated Learning(FL)は、デバイス間で共有されたグローバルモデルの協調トレーニングを促進する分散学習パラダイムである。
本稿では,サーバ上のラベル付きアンカーデータにのみ訓練された分類ヘッドと組み合わせて,アンカーヘッドと呼ばれるユニークな二重ヘッド構造を導入する,革新的なFSSL手法であるFedAnchorを提案する。
提案手法は, 高信頼度モデル予測サンプルに基づいて, 疑似ラベル技術に係わる検証バイアスと過度に適合する問題を緩和する。
論文 参考訳(メタデータ) (2024-02-15T18:48:21Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - One-Shot Heterogeneous Federated Learning with Local Model-Guided Diffusion Models [40.83058938096914]
FedLMGは局所モデル誘導拡散モデルを用いた単発フェデレーション学習法である。
クライアントはファンデーションモデルにアクセスする必要はなく、ローカルモデルのトレーニングとアップロードのみを行う。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。