論文の概要: Federated Learning with Domain Generalization
- arxiv url: http://arxiv.org/abs/2111.10487v1
- Date: Sat, 20 Nov 2021 01:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:09:10.373614
- Title: Federated Learning with Domain Generalization
- Title(参考訳): ドメイン一般化による連合学習
- Authors: Liling Zhang, Xinyu Lei, Yichun Shi, Hongyu Huang and Chao Chen
- Abstract要約: フェデレートラーニング(Federated Learning)は、集中型サーバの助けを借りて、機械学習モデルを共同でトレーニングすることを可能にする。
実際には、複数のソースドメイン上でトレーニングされたモデルは、目に見えないターゲットドメイン上での一般化性能が劣る可能性がある。
我々は,フェデレート学習とドメイン一般化能力の両立を図り,FedADGを提案する。
- 参考スコア(独自算出の注目度): 11.92860245410696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) enables a group of clients to jointly train a machine
learning model with the help of a centralized server. Clients do not need to
submit their local data to the server during training, and hence the local
training data of clients is protected. In FL, distributed clients collect their
local data independently, so the dataset of each client may naturally form a
distinct source domain. In practice, the model trained over multiple source
domains may have poor generalization performance on unseen target domains. To
address this issue, we propose FedADG to equip federated learning with domain
generalization capability. FedADG employs the federated adversarial learning
approach to measure and align the distributions among different source domains
via matching each distribution to a reference distribution. The reference
distribution is adaptively generated (by accommodating all source domains) to
minimize the domain shift distance during alignment. In FedADG, the alignment
is fine-grained since each class is aligned independently. In this way, the
learned feature representation is supposed to be universal, so it can
generalize well on the unseen domains. Extensive experiments on various
datasets demonstrate that FedADG has better performance than most of the
previous solutions even if they have an additional advantage that allows
centralized data access. To support study reproducibility, the project codes
are available in https://github.com/wzml/FedADG
- Abstract(参考訳): フェデレートラーニング(FL)は、集中型サーバの助けを借りて、機械学習モデルを共同でトレーニングすることを可能にする。
クライアントはトレーニング中にローカルデータをサーバに送信する必要がないため、クライアントのローカルトレーニングデータは保護される。
FLでは、分散クライアントはローカルデータを独立して収集するので、各クライアントのデータセットは自然に異なるソースドメインを形成します。
実際には、複数のソースドメインでトレーニングされたモデルは、未知のターゲットドメインの一般化性能が低くなる可能性がある。
この問題に対処するため,フェデレーション学習とドメイン一般化能力の両立を図ったFedADGを提案する。
FedADGは、各分布を基準分布に合わせることで、異なるソースドメイン間の分布を測定し調整するために、フェデレーション付き逆学習アプローチを採用している。
参照分布はアライメント中の領域シフト距離を最小化するために(すべてのソース領域に適応して)適応的に生成される。
FedADGでは、各クラスは独立してアライメントされるので、アライメントはきめ細やかである。
このように、学習された特徴表現は普遍的であるはずなので、目に見えない領域でうまく一般化できる。
さまざまなデータセットに関する広範な実験は、集中型データアクセスを可能にする追加のアドバンテージがあるとしても、feedadgが以前のほとんどのソリューションよりも優れたパフォーマンスを示している。
研究再現性をサポートするために、プロジェクトのコードはhttps://github.com/wzml/FedADGで入手できる。
関連論文リスト
- FISC: Federated Domain Generalization via Interpolative Style Transfer and Contrastive Learning [5.584498171854557]
フェデレーテッド・ラーニング(FL)は、プライバシの保護と協調学習の実現を約束している。
本稿では、クライアント間のより複雑なドメイン分散を処理する新しいFLドメイン一般化パラダイムであるFISCを紹介する。
本手法は, 未確認領域における3.64%から57.22%の精度向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T00:50:23Z) - FACT: Federated Adversarial Cross Training [0.0]
Federated Adrial Cross Training (FACT)は、ソースクライアント間の暗黙のドメイン差を利用して、ターゲットドメイン内のドメインシフトを特定する。
我々は、FACTが最先端のフェデレーション、非フェデレーション、およびソースフリードメイン適応モデルより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-06-01T12:25:43Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Learning Across Domains and Devices: Style-Driven Source-Free Domain
Adaptation in Clustered Federated Learning [32.098954477227046]
本稿では,クライアントのデータをラベル付けせず,サーバが事前学習のためにラベル付きデータセットにアクセスする新しいタスクを提案する。
実験の結果,我々のアルゴリズムは既存の手法よりも効率よく新しい課題に取り組むことができることがわかった。
論文 参考訳(メタデータ) (2022-10-05T15:23:52Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Cluster-driven Graph Federated Learning over Multiple Domains [25.51716405561116]
グラフフェデレーション学習(FL)は、中央モデル(すなわち、学習)を扱う。
サーバ) プライバシに制約されたシナリオ。
本稿では,クラスタ型グラフフェデレーション学習(FedCG)を提案する。
論文 参考訳(メタデータ) (2021-04-29T19:31:19Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Domain-Adaptive Few-Shot Learning [124.51420562201407]
本稿では,ドメイン適応型少数ショット学習のための新しいドメイン・アドバイザリアル・ネットワーク(DAPN)モデルを提案する。
私たちのソリューションは、ドメイン適応型機能埋め込み学習の前に、ソース/ターゲットをクラスごとに明確に分離することです。
論文 参考訳(メタデータ) (2020-03-19T08:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。