論文の概要: FACT: Federated Adversarial Cross Training
- arxiv url: http://arxiv.org/abs/2306.00607v2
- Date: Fri, 28 Jul 2023 10:57:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 15:29:54.386469
- Title: FACT: Federated Adversarial Cross Training
- Title(参考訳): FACT:Federated Adversarial Cross Training
- Authors: Stefan Schrod, Jonas Lippl, Andreas Sch\"afer, Michael Altenbuchinger
- Abstract要約: Federated Adrial Cross Training (FACT)は、ソースクライアント間の暗黙のドメイン差を利用して、ターゲットドメイン内のドメインシフトを特定する。
我々は、FACTが最先端のフェデレーション、非フェデレーション、およびソースフリードメイン適応モデルより優れていることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) facilitates distributed model development to
aggregate multiple confidential data sources. The information transfer among
clients can be compromised by distributional differences, i.e., by non-i.i.d.
data. A particularly challenging scenario is the federated model adaptation to
a target client without access to annotated data. We propose Federated
Adversarial Cross Training (FACT), which uses the implicit domain differences
between source clients to identify domain shifts in the target domain. In each
round of FL, FACT cross initializes a pair of source clients to generate domain
specialized representations which are then used as a direct adversary to learn
a domain invariant data representation. We empirically show that FACT
outperforms state-of-the-art federated, non-federated and source-free domain
adaptation models on three popular multi-source-single-target benchmarks, and
state-of-the-art Unsupervised Domain Adaptation (UDA) models on
single-source-single-target experiments. We further study FACT's behavior with
respect to communication restrictions and the number of participating clients.
- Abstract(参考訳): フェデレーション学習(fl)は、複数の機密データソースを集約する分散モデル開発を促進する。
クライアント間の情報転送は、分散差、すなわち非i.d.データによって妥協される。
特に難しいシナリオは、アノテーション付きデータにアクセスせずにターゲットクライアントにフェデレーションモデルを適用することだ。
本稿では、ソースクライアント間の暗黙的なドメイン差を利用して、対象ドメイン内のドメインシフトを特定するFACT(Federated Adversarial Cross Training)を提案する。
flの各ラウンドにおいて、ファクトクロスは一対のソースクライアントを初期化し、ドメイン特化表現を生成し、ドメイン不変データ表現を学ぶための直接の敵として使用される。
実験により、FACTは3つの人気のあるマルチソースシングルターゲットベンチマークにおいて、最先端のフェデレーション、非フェデレーション、ソースフリーのドメイン適応モデル、および単一ソースシングルターゲット実験において、最先端のUnsupervised Domain Adaptation (UDA)モデルより優れていることを示す。
さらに、通信制限や参加顧客数に関して、FACTの行動について検討する。
関連論文リスト
- FISC: Federated Domain Generalization via Interpolative Style Transfer and Contrastive Learning [5.584498171854557]
フェデレーテッド・ラーニング(FL)は、プライバシの保護と協調学習の実現を約束している。
本稿では、クライアント間のより複雑なドメイン分散を処理する新しいFLドメイン一般化パラダイムであるFISCを紹介する。
本手法は, 未確認領域における3.64%から57.22%の精度向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T00:50:23Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Feature Diversification and Adaptation for Federated Domain Generalization [27.646565383214227]
実世界のアプリケーションでは、ローカルクライアントは、しばしば制限されたドメイン内で動作し、クライアント間でのドメインシフトにつながる。
フェデレーション(federated feature diversification)の概念を導入し,プライバシを保ちながら,ローカルモデルによるクライアント不変表現の学習を支援する。
我々のグローバルモデルでは、目に見えないテスト領域データに対して堅牢な性能を示す。
論文 参考訳(メタデータ) (2024-07-11T07:45:10Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。