論文の概要: HFedATM: Hierarchical Federated Domain Generalization via Optimal Transport and Regularized Mean Aggregation
- arxiv url: http://arxiv.org/abs/2508.05135v1
- Date: Thu, 07 Aug 2025 08:14:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.758048
- Title: HFedATM: Hierarchical Federated Domain Generalization via Optimal Transport and Regularized Mean Aggregation
- Title(参考訳): HFedATM: 最適輸送と正規化平均集約による階層的フェデレーションドメイン一般化
- Authors: Thinh Nguyen, Trung Phan, Binh T. Nguyen, Khoa D Doan, Kok-Seng Wong,
- Abstract要約: Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有グローバルモデルをトレーニングする分散アプローチである。
本稿では階層型フェデレーションドメイン一般化(HFedDG)を紹介する。
- 参考スコア(独自算出の注目度): 12.655334562608314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a decentralized approach where multiple clients collaboratively train a shared global model without sharing their raw data. Despite its effectiveness, conventional FL faces scalability challenges due to excessive computational and communication demands placed on a single central server as the number of participating devices grows. Hierarchical Federated Learning (HFL) addresses these issues by distributing model aggregation tasks across intermediate nodes (stations), thereby enhancing system scalability and robustness against single points of failure. However, HFL still suffers from a critical yet often overlooked limitation: domain shift, where data distributions vary significantly across different clients and stations, reducing model performance on unseen target domains. While Federated Domain Generalization (FedDG) methods have emerged to improve robustness to domain shifts, their integration into HFL frameworks remains largely unexplored. In this paper, we formally introduce Hierarchical Federated Domain Generalization (HFedDG), a novel scenario designed to investigate domain shift within hierarchical architectures. Specifically, we propose HFedATM, a hierarchical aggregation method that first aligns the convolutional filters of models from different stations through Filter-wise Optimal Transport Alignment and subsequently merges aligned models using a Shrinkage-aware Regularized Mean Aggregation. Our extensive experimental evaluations demonstrate that HFedATM significantly boosts the performance of existing FedDG baselines across multiple datasets and maintains computational and communication efficiency. Moreover, theoretical analyses indicate that HFedATM achieves tighter generalization error bounds compared to standard hierarchical averaging, resulting in faster convergence and stable training behavior.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有グローバルモデルをトレーニングする分散アプローチである。
その有効性にもかかわらず、従来のFLは、単一の中央サーバ上に置かれる計算と通信の過剰な要求によりスケーラビリティの課題に直面している。
HFL(Hierarchical Federated Learning)は、モデル集約タスクを中間ノード(ステーション)に分散することで、単一障害点に対するシステムのスケーラビリティと堅牢性を向上させることで、これらの問題に対処する。
ドメインシフト — 異なるクライアントやステーション間でデータの分散が著しく異なるため、目に見えないターゲットドメインのモデルパフォーマンスが低下する。
FedDG(Federated Domain Generalization)メソッドは、ドメインシフトに対する堅牢性を改善するために登場したが、HFLフレームワークへの統合は、まだほとんど検討されていない。
本稿では,階層型ドメイン一般化(HFedDG)を正式に導入する。
具体的には,HFedATMを提案する。HFedATMは,まずフィルタワイド・トランスポートアライメントを通じて,異なる局からのモデルの畳み込みフィルタをアライメントし,次にシュリンカ対応の正規化平均アグリゲーションを用いてアライメントモデルをマージする階層的アグリゲーション手法である。
HFedATMは,複数のデータセットにまたがる既存のFedDGベースラインの性能を著しく向上し,計算および通信効率の維持を図っている。
さらに、HFedATMは標準階層平均化よりも厳密な一般化誤差境界を達成し、より高速な収束と安定した訓練行動をもたらすことが理論的に示唆されている。
関連論文リスト
- Boosting Domain Generalized and Adaptive Detection with Diffusion Models: Fitness, Generalization, and Transferability [0.0]
ディテクタは、トレーニングとテストデータのドメインギャップによって、しばしばパフォーマンス低下に悩まされる。
近年,領域一般化(DG)や適応(DA)タスクに応用された拡散モデルが研究されている。
単一段階拡散過程から中間的特徴を抽出することにより,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2025-06-26T06:42:23Z) - NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Let Synthetic Data Shine: Domain Reassembly and Soft-Fusion for Single Domain Generalization [68.41367635546183]
単一ドメインの一般化は、単一のソースからのデータを使用して、さまざまなシナリオで一貫したパフォーマンスでモデルをトレーニングすることを目的としている。
モデル一般化を改善するために合成データを活用した学習フレームワークDRSFを提案する。
論文 参考訳(メタデータ) (2025-03-17T18:08:03Z) - Integrating Frequency Guidance into Multi-source Domain Generalization for Bearing Fault Diagnosis [24.85752780864944]
本稿では,FARNetというFourierベースのAugmentation Restruction Networkを提案する。
本発明のネットワークは、振幅スペクトルサブネットワークと位相スペクトルサブネットワークとから構成され、ソースドメインとターゲットドメインとの相違を順次低減する。
モデル出力の決定境界を従来の三重項損失と比較して洗練するために,一般化に寄与する多様体三重項損失を提案する。
論文 参考訳(メタデータ) (2025-02-01T20:23:03Z) - FedDAG: Federated Domain Adversarial Generation Towards Generalizable Medical Image Analysis [13.028776283830686]
Federated Domain Adversarial Generation (FedDAG)は、ドメインシフトをシミュレートし、モデルの一般化を改善することを目的としている。
オリジナル画像と生成された画像のインスタンスレベルの特徴差を最大化することにより、斬新な画像を生成する。
4つの医療ベンチマークの実験では、フェデラルな医療シナリオの一般化を強化するFedDAGの能力を実証している。
論文 参考訳(メタデータ) (2025-01-22T07:08:45Z) - Multisource Collaborative Domain Generalization for Cross-Scene Remote Sensing Image Classification [57.945437355714155]
クロスシーン画像分類は, 異なる分布領域のアノテート領域に, 地中物質の事前の知識を伝達することを目的としている。
既存のアプローチでは、未確認のターゲットドメインへの単一ソースドメインの一般化に重点を置いている。
マルチソースリモートセンシングデータの均一性と不均一性特性に基づく,新しいマルチソース協調型ドメイン一般化フレームワーク(MS-CDG)を提案する。
論文 参考訳(メタデータ) (2024-12-05T06:15:08Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Efficiently Assemble Normalization Layers and Regularization for Federated Domain Generalization [1.1534313664323637]
ドメインシフト(Domain shift)は、マシンラーニングにおいて、目に見えないドメインでテストした場合に、モデルのパフォーマンス低下に悩まされるという深刻な問題である。
FedDGは、プライバシー保護の方法で協調的なクライアントを使用してグローバルモデルをトレーニングしようと試みている。
本稿では, 誘導正規化方式に依存するFedDGの新しいアーキテクチャ手法,すなわちgPerXANを紹介する。
論文 参考訳(メタデータ) (2024-03-22T20:22:08Z) - Hypernetwork-Driven Model Fusion for Federated Domain Generalization [26.492360039272942]
フェデレートラーニング(FL)は、異種データのドメインシフトにおいて大きな課題に直面します。
非線形アグリゲーションにハイパーネットワークを用いた、ハイパーネットワークベースのフェデレート・フュージョン(hFedF)と呼ばれるロバストなフレームワークを提案する。
本手法では,ドメインの一般化を効果的に管理するために,クライアント固有の埋め込みと勾配アライメント手法を用いる。
論文 参考訳(メタデータ) (2024-02-10T15:42:03Z) - FedWon: Triumphing Multi-domain Federated Learning Without Normalization [50.49210227068574]
フェデレートラーニング(FL)は、分散クライアントでの協調的なインサイトトレーニングによって、データのプライバシを高める。
しかし、フェデレーテッド・ラーニング(FL)は、非独立で同一に分散された(非i.d)データのために困難に直面する。
本稿では,FLにおける多領域問題に対処するため,FedWon(Federated Learning Without normalizations)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T13:18:50Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - A Unified Theory of Decentralized SGD with Changing Topology and Local
Updates [70.9701218475002]
分散通信方式の統一収束解析を導入する。
いくつかの応用に対して普遍収束率を導出する。
私たちの証明は弱い仮定に依存している。
論文 参考訳(メタデータ) (2020-03-23T17:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。