論文の概要: FedADP: Unified Model Aggregation for Federated Learning with Heterogeneous Model Architectures
- arxiv url: http://arxiv.org/abs/2505.06497v1
- Date: Sat, 10 May 2025 02:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.869215
- Title: FedADP: Unified Model Aggregation for Federated Learning with Heterogeneous Model Architectures
- Title(参考訳): FedADP: 不均一なモデルアーキテクチャによるフェデレーション学習のための統一モデル集約
- Authors: Jiacheng Wang, Hongtao Lv, Lei Liu,
- Abstract要約: 従来のフェデレートラーニング(FL)は、特に異種環境において、効率と正確性の観点から大きな課題に直面しています。
集約中のモデルアーキテクチャを動的に調整することでクライアントの不均一性に適応するフェデレート学習フレームワークであるFedADPを提案する。
実験の結果,FedADP は FlexiFed などの既存手法を著しく上回り,最大 23.30% の精度向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 5.348839333572149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Federated Learning (FL) faces significant challenges in terms of efficiency and accuracy, particularly in heterogeneous environments where clients employ diverse model architectures and have varying computational resources. Such heterogeneity complicates the aggregation process, leading to performance bottlenecks and reduced model generalizability. To address these issues, we propose FedADP, a federated learning framework designed to adapt to client heterogeneity by dynamically adjusting model architectures during aggregation. FedADP enables effective collaboration among clients with differing capabilities, maximizing resource utilization and ensuring model quality. Our experimental results demonstrate that FedADP significantly outperforms existing methods, such as FlexiFed, achieving an accuracy improvement of up to 23.30%, thereby enhancing model adaptability and training efficiency in heterogeneous real-world settings.
- Abstract(参考訳): 従来のフェデレートラーニング(FL)は、特にクライアントが多様なモデルアーキテクチャを採用し、様々な計算資源を持つ異種環境において、効率と正確性の観点から大きな課題に直面している。
このような不均一性は集約プロセスを複雑にし、パフォーマンスのボトルネックとモデルの一般化可能性の低下につながる。
これらの問題に対処するため、我々は、集約中のモデルアーキテクチャを動的に調整することでクライアントの不均一性に適応するように設計されたフェデレート学習フレームワークであるFedADPを提案する。
FedADPは、異なる機能を持つクライアント間で効果的なコラボレーションを可能にし、リソース利用の最大化とモデル品質の確保を可能にします。
実験の結果,FedADPはFlexiFedなどの既存手法よりも優れ,精度が最大23.30%向上し,異種実世界の環境におけるモデル適応性とトレーニング効率が向上した。
関連論文リスト
- Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - Personalized Federated Fine-Tuning for LLMs via Data-Driven Heterogeneous Model Architectures [15.645254436094055]
フェデレートラーニング(FL)は、データ共有なしで大規模言語モデルの協調的な微調整を可能にする。
データ駆動の異種モデルアーキテクチャを実現する軽量なパーソナライズFLフレームワークであるFedAMoLEを提案する。
実験によると、FedAMoLEは既存の手法に比べて平均5.14%精度が向上している。
論文 参考訳(メタデータ) (2024-11-28T13:20:38Z) - Towards Efficient Model-Heterogeneity Federated Learning for Large Models [18.008063521900702]
モデル・ヘテロジニティ・フェデレーション・ラーニング(MHFL)に適した革新的微調整フレームワークであるHeteroTuneを紹介する。
特に,マルチブランチ・クロスモデルアグリゲータを用いたFedAdapterという,パラメータ効率の高いファインチューニング構造を提案する。
軽量なFedAdapterの利点は、計算オーバーヘッドと通信オーバーヘッドの両方を大幅に削減することにある。
論文 参考訳(メタデータ) (2024-11-25T09:58:51Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Towards Personalized Federated Learning via Heterogeneous Model
Reassembly [84.44268421053043]
pFedHRは、異種モデルの再組み立てを利用して、パーソナライズされたフェデレーション学習を実現するフレームワークである。
pFedHRは、動的に多様なパーソナライズされたモデルを自動生成する。
論文 参考訳(メタデータ) (2023-08-16T19:36:01Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。