論文の概要: Decentralized Federated Domain Generalization with Style Sharing: A Formal Modeling and Convergence Analysis
- arxiv url: http://arxiv.org/abs/2504.06235v1
- Date: Tue, 08 Apr 2025 17:32:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:01.667154
- Title: Decentralized Federated Domain Generalization with Style Sharing: A Formal Modeling and Convergence Analysis
- Title(参考訳): スタイル共有を伴う分散フェデレーションドメイン一般化:形式モデリングと収束解析
- Authors: Shahryar Zehtabi, Dong-Jun Han, Seyyedali Hosseinalipour, Christopher G. Brinton,
- Abstract要約: 本論文は,領域一般化目標と学習過程の形式的数学的解析の欠如を動機としたものである。
我々は、ピアツーピアネットワーク内のデバイスが、データセットから推論されたスタイル情報を共有することによって、DGを実現するための、完全に分散化されたDGアルゴリズムを開発した。
我々は、$textttStyleDDG$が、最小限の通信オーバーヘッドでターゲットドメイン間の精度を大幅に改善できることを示した。
- 参考スコア(独自算出の注目度): 19.571001440750234
- License:
- Abstract: Much of the federated learning (FL) literature focuses on settings where local dataset statistics remain the same between training and testing time. Recent advances in domain generalization (DG) aim to use data from source (training) domains to train a model that generalizes well to data from unseen target (testing) domains. In this paper, we are motivated by two major gaps in existing work on FL and DG: (1) the lack of formal mathematical analysis of DG objectives and training processes; and (2) DG research in FL being limited to the conventional star-topology architecture. Addressing the second gap, we develop $\textit{Decentralized Federated Domain Generalization with Style Sharing}$ ($\texttt{StyleDDG}$), a fully decentralized DG algorithm designed to allow devices in a peer-to-peer network to achieve DG based on sharing style information inferred from their datasets. Additionally, we fill the first gap by providing the first systematic approach to mathematically analyzing style-based DG training optimization. We cast existing centralized DG algorithms within our framework, and employ their formalisms to model $\texttt{StyleDDG}$. Based on this, we obtain analytical conditions under which a sub-linear convergence rate of $\texttt{StyleDDG}$ can be obtained. Through experiments on two popular DG datasets, we demonstrate that $\texttt{StyleDDG}$ can obtain significant improvements in accuracy across target domains with minimal added communication overhead compared to decentralized gradient methods that do not employ style sharing.
- Abstract(参考訳): FL(Federated Learning)の文献の多くは、トレーニングとテスト時間の間に、ローカルデータセット統計が同じままであるような設定に焦点を当てている。
ドメイン一般化(DG)の最近の進歩は、ソース(トレーニング)ドメインからのデータを使用して、見えないターゲット(テスト)ドメインからのデータによく一般化するモデルを訓練することを目的としている。
本稿では,FL と DG の既存の研究において,(1) DG の目的と訓練過程の形式的数学的解析が欠如していること,(2) FL の DG 研究は従来の恒星トポロジーアーキテクチャに限られていること,の2つの大きなギャップを動機としている。
2つ目のギャップに対処するため、我々は、Style Sharing}$$$\texttt{StyleDDG}$という完全に分散化されたDGアルゴリズムを開発しました。
さらに,形式に基づくDGトレーニング最適化を数学的に解析する最初の体系的アプローチを提供することで,最初のギャップを埋める。
我々は既存の集中型DGアルゴリズムを我々のフレームワーク内に配置し、それらの形式を使って$\texttt{StyleDDG}$をモデル化した。
これに基づいて、サブ線形収束率$\texttt{StyleDDG}$の解析条件を得る。
2つの一般的なDGデータセットの実験を通して、$\texttt{StyleDDG}$は、スタイル共有を使用しない分散勾配法と比較して、最小限の通信オーバーヘッドでターゲットドメイン全体の精度を大幅に向上させることができることを示した。
関連論文リスト
- Federated Domain Generalization with Data-free On-server Gradient Matching [6.817783565501387]
ドメイン一般化(DG)は、未知のターゲットドメインに適切に一般化できるモデルとして、複数の既知のソースドメインから学習することを目的としている。
本稿では,分散ドメインからのドメイン情報を効率よく活用できるFedOMG(On-server Matching Gradient)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-24T17:20:22Z) - PracticalDG: Perturbation Distillation on Vision-Language Models for Hybrid Domain Generalization [24.413415998529754]
本稿では,Hybrid Domain Generalization (HDG) と,アルゴリズムのロバスト性を評価するために,様々な分割を構成する新しい指標である$H2$-CVを提案する。
提案手法は,複数のデータセット上での最先端アルゴリズムよりも優れており,特にデータ不足に直面する場合のロバスト性の向上に寄与する。
論文 参考訳(メタデータ) (2024-04-13T13:41:13Z) - StableFDG: Style and Attention Based Learning for Federated Domain
Generalization [36.173582743028625]
本稿では,フェデレートされた領域の一般化を実現するためのスタイルと注意に基づく学習戦略を提案する。
スタイルベースの学習により、各クライアントは、ローカルデータセット内の元のソースドメインを越えて、新しいスタイルを探索できる。
2つ目のコントリビューションは注目に基づく機能ハイライトで、同じクラスのデータサンプルの特徴の類似性をキャプチャします。
論文 参考訳(メタデータ) (2023-11-01T02:17:01Z) - CNN Feature Map Augmentation for Single-Source Domain Generalization [6.053629733936548]
ドメイン・ジェネリゼーション(DG)はここ数年で大きな注目を集めている。
DGの目標は、トレーニング中に利用可能なものと異なるデータ分散を提示した場合、引き続き正常に機能するモデルを作成することだ。
単一ソースDG画像分類設定における畳み込みニューラルネットワークアーキテクチャの代替正則化手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T08:48:17Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。