論文の概要: UnifiedFL: A Dynamic Unified Learning Framework for Equitable Federation
- arxiv url: http://arxiv.org/abs/2510.26350v1
- Date: Thu, 30 Oct 2025 11:01:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.768005
- Title: UnifiedFL: A Dynamic Unified Learning Framework for Equitable Federation
- Title(参考訳): UnifiedFL: 平等フェデレーションのための動的統一学習フレームワーク
- Authors: Furkan Pala, Islem Rekik,
- Abstract要約: フェデレートラーニングは、生データを共有せずに複数のクライアント間で協調的なモデルトレーニングを行うための重要なパラダイムとして登場した。
We propose UnifiedFL, a dynamic federated learning framework which represent heterogeneous local network as node and edge in a directed model graph。
- 参考スコア(独自算出の注目度): 5.972927416266618
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) has emerged as a key paradigm for collaborative model training across multiple clients without sharing raw data, enabling privacy-preserving applications in areas such as radiology and pathology. However, works on collaborative training across clients with fundamentally different neural architectures and non-identically distributed datasets remain scarce. Existing FL frameworks face several limitations. Despite claiming to support architectural heterogeneity, most recent FL methods only tolerate variants within a single model family (e.g., shallower, deeper, or wider CNNs), still presuming a shared global architecture and failing to accommodate federations where clients deploy fundamentally different network types (e.g., CNNs, GNNs, MLPs). Moreover, existing approaches often address only statistical heterogeneity while overlooking the domain-fracture problem, where each client's data distribution differs markedly from that faced at testing time, undermining model generalizability. When clients use different architectures, have non-identically distributed data, and encounter distinct test domains, current methods perform poorly. To address these challenges, we propose UnifiedFL, a dynamic federated learning framework that represents heterogeneous local networks as nodes and edges in a directed model graph optimized by a shared graph neural network (GNN). UnifiedFL introduces (i) a common GNN to parameterize all architectures, (ii) distance-driven clustering via Euclidean distances between clients' parameters, and (iii) a two-tier aggregation policy balancing convergence and diversity. Experiments on MedMNIST classification and hippocampus segmentation benchmarks demonstrate UnifiedFL's superior performance. Code and data: https://github.com/basiralab/UnifiedFL
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに複数のクライアント間で協調的なモデルトレーニングを行うための重要なパラダイムとして現れ、放射線学や病理学などの分野におけるプライバシ保護アプリケーションを実現している。
しかしながら、基本的に異なるニューラルアーキテクチャと識別できない分散データセットを持つクライアント間の協調トレーニングは、依然として少ないままである。
既存のFLフレームワークにはいくつかの制限がある。
アーキテクチャの不均一性のサポートを主張しながらも、最近のFLメソッドは、単一のモデルファミリー(例えば、浅い、深い、より広いCNN)内の変種のみを許容し、共有グローバルアーキテクチャを前提としており、クライアントが基本的な異なるネットワークタイプ(例えば、CNN、GNN、MLP)をデプロイするフェデレーションに対応できない。
さらに、既存のアプローチでは、各クライアントのデータ分布がテスト時に直面するものと著しく異なるドメイン・フラクチャ問題を見下ろしながら、統計的不均一性のみに対処し、モデルの一般化性を損なうことも多い。
クライアントが異なるアーキテクチャを使用し、識別できない分散データを持ち、異なるテストドメインに遭遇した場合、現在のメソッドはパフォーマンスが悪くなります。
これらの課題に対処するために、共有グラフニューラルネットワーク(GNN)により最適化された有向モデルグラフにおいて、異種ローカルネットワークをノードとエッジとして表現する動的フェデレーション学習フレームワークUnifiedFLを提案する。
UnifiedFL導入
(i)すべてのアーキテクチャをパラメータ化するための共通GNN。
二 クライアントのパラメータ間のユークリッド距離による距離駆動クラスタリング
三 収束と多様性のバランスをとる二層集約政策
MedMNIST分類と海馬セグメンテーションベンチマークの実験は、UnifiedFLの優れた性能を示している。
コードとデータ:https://github.com/basiralab/UnifiedFL
関連論文リスト
- FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Client Selection in Federated Learning with Data Heterogeneity and Network Latencies [19.161254709653914]
Federated Learning(FL)は、複数のクライアントがプライベートデータに基づいてローカルトレーニングを行う分散機械学習パラダイムである。
本稿では,両不均一性を扱う理論的に最適なクライアント選択方式を2つ提案する。
論文 参考訳(メタデータ) (2025-04-02T17:31:15Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Decentralized Sporadic Federated Learning: A Unified Algorithmic Framework with Convergence Guarantees [18.24213566328972]
分散学習計算(DFL)は、(i)モデル更新と(ii)モデルアグリゲーションの両方が中央サーバなしでクライアントによって実行されるFL設定をキャプチャする。
$textttDSpodFL$は、ローカルグラデーションとアグリゲーションプロセスの両方において、$textitsporadicity$という一般的な概念に基づいて構築されたDFL方法論である。
$textttDSpodFL$は、さまざまなシステム設定のベースラインと比較して、改善されたスピードを一貫して達成する。
論文 参考訳(メタデータ) (2024-02-05T19:02:19Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。