論文の概要: Federated Domain Generalization with Latent Space Inversion
- arxiv url: http://arxiv.org/abs/2512.10224v1
- Date: Thu, 11 Dec 2025 02:17:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.165494
- Title: Federated Domain Generalization with Latent Space Inversion
- Title(参考訳): 潜在空間インバージョンを用いたフェデレーションドメインの一般化
- Authors: Ragja Palakkadavath, Hung Le, Thanh Nguyen-Tang, Svetha Venkatesh, Sunil Gupta,
- Abstract要約: フェデレーションドメイン一般化(FedDG)は、フェデレーション学習フレームワークにおけるクライアント間の分散シフトに対処する。
FedDGメソッドは、ローカルにトレーニングされたクライアントモデルのパラメータを集約し、データプライバシを保持しながら、見えないクライアントに一般化するグローバルモデルを形成する。
私たちのソリューションは、ローカルクライアントのトレーニングとモデルアグリゲーションを実行する新しい方法を提供することによって、この問題に対処します。
- 参考スコア(独自算出の注目度): 42.37530136140609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated domain generalization (FedDG) addresses distribution shifts among clients in a federated learning framework. FedDG methods aggregate the parameters of locally trained client models to form a global model that generalizes to unseen clients while preserving data privacy. While improving the generalization capability of the global model, many existing approaches in FedDG jeopardize privacy by sharing statistics of client data between themselves. Our solution addresses this problem by contributing new ways to perform local client training and model aggregation. To improve local client training, we enforce (domain) invariance across local models with the help of a novel technique, \textbf{latent space inversion}, which enables better client privacy. When clients are not \emph{i.i.d}, aggregating their local models may discard certain local adaptations. To overcome this, we propose an \textbf{important weight} aggregation strategy to prioritize parameters that significantly influence predictions of local models during aggregation. Our extensive experiments show that our approach achieves superior results over state-of-the-art methods with less communication overhead.
- Abstract(参考訳): フェデレーションドメイン一般化(FedDG)は、フェデレーション学習フレームワークにおけるクライアント間の分散シフトに対処する。
FedDGメソッドは、ローカルにトレーニングされたクライアントモデルのパラメータを集約し、データプライバシを保持しながら、見えないクライアントに一般化するグローバルモデルを形成する。
グローバルモデルの一般化能力を改善する一方で、FedDGの既存の多くのアプローチは、クライアントデータの統計データを相互に共有することでプライバシーを危険にさらしている。
私たちのソリューションは、ローカルクライアントのトレーニングとモデルアグリゲーションを実行する新しい方法を提供することによって、この問題に対処します。
ローカルクライアントのトレーニングを改善するために、クライアントのプライバシーを向上する新しいテクニックである \textbf{latent space inversion} の助けを借りて、ローカルモデル間の(ドメイン間の)不変性を強制する。
クライアントが \emph{i.i.d} でない場合、それらの局所モデルの集約は特定の局所的な適応を破棄する。
そこで本研究では,局所モデルの集約時の予測に大きく影響するパラメータを優先する<textbf{important weight}アグリゲーション戦略を提案する。
提案手法は,通信オーバヘッドの少ない最先端手法よりも優れた結果が得られることを示す。
関連論文リスト
- Enhancing the Performance of Global Model by Improving the Adaptability of Local Models in Federated Learning [5.783667435751743]
フェデレートラーニングは、クライアントがローカルモデルから集約されたグローバルモデルを協調的にトレーニングすることを可能にする。
クライアント上の不均一なデータ分布とフェデレートラーニングにおけるデータプライバシのため,ローカルモデルをトレーニングして,優れたグローバルモデルを実現することは困難である。
我々は,局所モデルの適応性を導入し,局所モデルの適応性を向上させることでグローバルモデルの性能を向上させる。
論文 参考訳(メタデータ) (2025-05-15T09:51:47Z) - Feature Diversification and Adaptation for Federated Domain Generalization [27.646565383214227]
実世界のアプリケーションでは、ローカルクライアントは、しばしば制限されたドメイン内で動作し、クライアント間でのドメインシフトにつながる。
フェデレーション(federated feature diversification)の概念を導入し,プライバシを保ちながら,ローカルモデルによるクライアント不変表現の学習を支援する。
我々のグローバルモデルでは、目に見えないテスト領域データに対して堅牢な性能を示す。
論文 参考訳(メタデータ) (2024-07-11T07:45:10Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。