論文の概要: FederatedFactory: Generative One-Shot Learning for Extremely Non-IID Distributed Scenarios
- arxiv url: http://arxiv.org/abs/2603.16370v1
- Date: Tue, 17 Mar 2026 10:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.232655
- Title: FederatedFactory: Generative One-Shot Learning for Extremely Non-IID Distributed Scenarios
- Title(参考訳): FederatedFactory:超非IID分散シナリオのための生成ワンショット学習
- Authors: Andrea Moleri, Christian Internò, Ali Raza, Markus Olhofer, David Klindt, Fabio Stella, Barbara Hammer,
- Abstract要約: フェデレートラーニング(FL)は、データの主権を損なうことなく分散最適化を可能にする。
我々は、識別パラメータから生成前のフェデレーション単位を反転させるゼロ依存フレームワークであるFederatedFactoryを紹介した。
- 参考スコア(独自算出の注目度): 5.6638199968217835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables distributed optimization without compromising data sovereignty. Yet, where local label distributions are mutually exclusive, standard weight aggregation fails due to conflicting optimization trajectories. Often, FL methods rely on pretrained foundation models, introducing unrealistic assumptions. We introduce FederatedFactory, a zero-dependency framework that inverts the unit of federation from discriminative parameters to generative priors. By exchanging generative modules in a single communication round, our architecture supports ex nihilo synthesis of universally class balanced datasets, eliminating gradient conflict and external prior bias entirely. Evaluations across diverse medical imagery benchmarks, including MedMNIST and ISIC2019, demonstrate that our approach recovers centralized upper-bound performance. Under pathological heterogeneity, it lifts baseline accuracy from a collapsed 11.36% to 90.57% on CIFAR-10 and restores ISIC2019 AUROC to 90.57%. Additionally, this framework facilitates exact modular unlearning through the deterministic deletion of specific generative modules.
- Abstract(参考訳): フェデレートラーニング(FL)は、データの主権を損なうことなく分散最適化を可能にする。
しかし、局所的なラベル分布が互いに排他的である場合、標準重み付けは最適化軌道の矛盾により失敗する。
FL法は、しばしば非現実的な仮定を導入し、事前訓練された基礎モデルに依存する。
我々は、識別パラメータから生成前のフェデレーション単位を反転させるゼロ依存フレームワークであるFederatedFactoryを紹介した。
単一の通信ラウンドで生成モジュールを交換することにより、我々のアーキテクチャは、普遍的にクラスのバランスの取れたデータセットのニヒロ合成をサポートし、勾配の競合と外部の事前バイアスを完全に排除する。
MedMNIST や ISIC2019 など,様々な医用画像のベンチマークによる評価は,本手法が集中的上行性能を回復することを示すものである。
CIFAR-10では11.36%から90.57%に低下し、ISIC2019 AUROCは90.57%に回復した。
さらに、このフレームワークは特定の生成モジュールの決定論的削除を通じて、正確なモジュラアンラーニングを促進する。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Evidential Trust-Aware Model Personalization in Decentralized Federated Learning for Wearable IoT [16.700861880781087]
分散連合学習(DFL)は、一元的な調整なしにエッジデバイス間で協調的なモデルトレーニングを可能にする。
本稿では,DFLにおける信頼を意識したモデルパーソナライゼーションを実現するために,明らかなディープラーニングを活用するフレームワークであるMurmuraを紹介する。
論文 参考訳(メタデータ) (2025-12-22T08:26:54Z) - Federated Learning Meets LLMs: Feature Extraction From Heterogeneous Clients [0.0]
フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にする。
我々は,事前学習された大規模言語モデル(LLM)を普遍的特徴抽出器として利用するフレームワークであるFedLLM-Alignを提案する。
冠動脈疾患予測におけるFedLLM-Alignの評価は,シミュレートされたスキーマ分岐を用いた分割データセットを用いて行われる。
論文 参考訳(メタデータ) (2025-09-29T14:06:52Z) - FedSKD: Aggregation-free Model-heterogeneous Federated Learning using Multi-dimensional Similarity Knowledge Distillation [7.944298319589845]
フェデレートラーニング(FL)は、直接データを共有することなく、プライバシー保護のための協調モデルトレーニングを可能にする。
MHFL(Model-heterogeneous FL)は、クライアントが計算資源やアプリケーション固有のニーズに合わせて、不均一なアーキテクチャでパーソナライズされたモデルを訓練することを可能にする。
ピアツーピア(P2P)FLはサーバ依存を除去するが、モデルドリフトと知識の希釈に悩まされ、不均一な設定での有効性が制限される。
ラウンドロビンモデル循環による直接知識交換を容易にする新しいMHFLフレームワークであるFedSKDを提案する。
論文 参考訳(メタデータ) (2025-03-23T05:33:10Z) - You Are Your Own Best Teacher: Achieving Centralized-level Performance in Federated Learning under Heterogeneous and Long-tailed Data [54.56492110703343]
局所的な非IIDデータとグローバルな長期分布から生ずるデータ不均一性は、連邦学習(FL)における大きな課題である
弱い局所サンプルと強い局所サンプルの知識を蒸留し,表現学習を改善するためにFedYoYoを提案する。
我々は、FedYoYoが最先端の結果を達成し、グローバルな長期的設定の下で集中ロジット調整手法を5.4%超えたことを示します。
論文 参考訳(メタデータ) (2025-03-10T04:57:20Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - An Architecture Built for Federated Learning: Addressing Data Heterogeneity through Adaptive Normalization-Free Feature Recalibration [0.3481075494213406]
We propose Adaptive Normalization-free Feature Recalibration (ANFR) to combat heterogeneous data in Federated Learning (FL)。
ANFRは、ウェイト標準化とチャネルアテンションを組み合わせて、特徴マップの学習可能なスケーリング要素を生成する。
実験により、ANFRは様々なアグリゲーション法で確立されたベースラインを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-02T20:16:56Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。