論文の概要: FedUNet: A Lightweight Additive U-Net Module for Federated Learning with Heterogeneous Models
- arxiv url: http://arxiv.org/abs/2508.12740v1
- Date: Mon, 18 Aug 2025 09:03:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.140377
- Title: FedUNet: A Lightweight Additive U-Net Module for Federated Learning with Heterogeneous Models
- Title(参考訳): FedUNet: 異種モデルによるフェデレーション学習のための軽量付加的U-Netモジュール
- Authors: Beomseok Seo, Kichang Lee, JaeYeon Park,
- Abstract要約: フェデレートラーニング(FL)は、ローカルデータを共有せずに、分散モデルトレーニングを可能にする。
本稿では,U-Netにインスパイアされた付加モジュールを各クライアントのバックボーンにアタッチする,軽量なFLフレームワークであるFedUNetを提案する。
VGGの変種を用いた実験では、FedUNetは93.11%の精度と92.68%のコンパクト化を実現している。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) enables decentralized model training without sharing local data. However, most existing methods assume identical model architectures across clients, limiting their applicability in heterogeneous real-world environments. To address this, we propose FedUNet, a lightweight and architecture-agnostic FL framework that attaches a U-Net-inspired additive module to each client's backbone. By sharing only the compact bottleneck of the U-Net, FedUNet enables efficient knowledge transfer without structural alignment. The encoder-decoder design and skip connections in the U-Net help capture both low-level and high-level features, facilitating the extraction of clientinvariant representations. This enables cooperative learning between the backbone and the additive module with minimal communication cost. Experiment with VGG variants shows that FedUNet achieves 93.11% accuracy and 92.68% in compact form (i.e., a lightweight version of FedUNet) with only 0.89 MB low communication overhead.
- Abstract(参考訳): フェデレートラーニング(FL)は、ローカルデータを共有せずに、分散モデルトレーニングを可能にする。
しかし、既存のほとんどの手法は、クライアント間で同じモデルアーキテクチャを前提としており、異質な実環境における適用性を制限している。
そこで我々は,U-Netにインスパイアされた付加モジュールを各クライアントのバックボーンにアタッチする軽量かつアーキテクチャに依存しないFLフレームワークであるFedUNetを提案する。
U-Netのコンパクトなボトルネックを共有することで、FedUNetは構造的アライメントなしに効率的な知識伝達を可能にする。
U-Netにおけるエンコーダデコーダの設計とスキップ接続は、低レベルと高レベルの両方の特徴をキャプチャし、クライアント不変表現の抽出を容易にする。
これにより、バックボーンと添加モジュール間の協調学習を最小限の通信コストで実現する。
VGGでの実験では、FedUNetは93.11%の精度と92.68%のコンパクトな形式(FedUNetの軽量版)を達成でき、通信オーバーヘッドはわずか0.89MBである。
関連論文リスト
- FedConv: A Learning-on-Model Paradigm for Heterogeneous Federated Clients [25.847042398060616]
フェデレートラーニング(FL)は、クライアントのプライベートデータを公開せずに、共有グローバルモデルの協調トレーニングを容易にする。
我々は、リソース制約のあるクライアントの計算とメモリ負荷を最小限に抑えるクライアントフレンドリーなFLフレームワークであるFedConvを提案する。
モデル精度,計算量,通信オーバヘッドの観点から,FedConvは最先端のFLシステムより優れていることを示す。
論文 参考訳(メタデータ) (2025-02-28T01:39:53Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedBug: A Bottom-Up Gradual Unfreezing Framework for Federated Learning [36.18217687935658]
Federated Learning(FL)は、複数のクライアントが共有モデルにコントリビュート可能な、協調的なトレーニングフレームワークを提供する。
ローカルデータセットの異種性のため、更新されたクライアントモデルは、クライアントドリフトの問題として知られる、互いにオーバーフィットし、分岐する可能性がある。
クライアントのドリフトを効果的に軽減する新しいFLフレームワークであるFedBugを提案する。
論文 参考訳(メタデータ) (2023-07-19T05:44:35Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - Comfetch: Federated Learning of Large Networks on Constrained Clients
via Sketching [28.990067638230254]
フェデレートラーニング(FL)は、エッジ上でのプライベートおよびコラボレーティブモデルトレーニングの一般的なパラダイムである。
我々は,グローバルニューラルネットワークの表現を用いて,クライアントが大規模ネットワークをトレーニングできる新しいアルゴリズムであるComdirectionalを提案する。
論文 参考訳(メタデータ) (2021-09-17T04:48:42Z) - FedNS: Improving Federated Learning for collaborative image
classification on mobile clients [22.980223900446997]
Federated Learning(FL)は、グローバルモデルを学ぶために疎結合のクライアントをサポートすることを目的としたパラダイムです。
本稿では、fl設定におけるサーバのグローバルモデル集約のためのフェデレーションノード選択(fedns)と呼ばれる新しい手法を提案する。
我々は、FedNSがFedAvgよりも一貫してパフォーマンスを向上させることができる複数のデータセットとネットワークからの実験で示します。
論文 参考訳(メタデータ) (2021-01-20T06:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。