論文の概要: Federated Active Learning for Target Domain Generalisation
- arxiv url: http://arxiv.org/abs/2312.02247v1
- Date: Mon, 4 Dec 2023 14:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 18:01:09.405082
- Title: Federated Active Learning for Target Domain Generalisation
- Title(参考訳): ターゲットドメインの一般化のためのフェデレーションアクティブラーニング
- Authors: Razvan Caramalau, Binod Bhattarai, Danail Stoyanov
- Abstract要約: アクティブラーニング(AL)とフェデレートドメイン一般化(FDG)を組み合わせたFEDALVを紹介する。
FDGは、限られたソースドメインクライアントのデータから訓練された画像分類モデルの一般化を可能にする。
FedaLVは、ソースクライアントのデータの5%をサンプリングしながら、完全なトレーニング対象精度のパフォーマンスを得る。
- 参考スコア(独自算出の注目度): 20.582521330618768
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce Active Learning framework in Federated Learning
for Target Domain Generalisation, harnessing the strength from both learning
paradigms. Our framework, FEDALV, composed of Active Learning (AL) and
Federated Domain Generalisation (FDG), enables generalisation of an image
classification model trained from limited source domain client's data without
sharing images to an unseen target domain. To this end, our FDG, FEDA, consists
of two optimisation updates during training, one at the client and another at
the server level. For the client, the introduced losses aim to reduce feature
complexity and condition alignment, while in the server, the regularisation
limits free energy biases between source and target obtained by the global
model. The remaining component of FEDAL is AL with variable budgets, which
queries the server to retrieve and sample the most informative local data for
the targeted client. We performed multiple experiments on FDG w/ and w/o AL and
compared with both conventional FDG baselines and Federated Active Learning
baselines. Our extensive quantitative experiments demonstrate the superiority
of our method in accuracy and efficiency compared to the multiple contemporary
methods. FEDALV manages to obtain the performance of the full training target
accuracy while sampling as little as 5% of the source client's data.
- Abstract(参考訳): 本稿では,2つの学習パラダイムの強みを生かして,対象領域一般化のための連合学習におけるアクティブラーニングフレームワークを提案する。
我々のフレームワークであるFEDALVは、アクティブラーニング(AL)とフェデレートドメイン一般化(FDG)で構成され、限られたソースドメインクライアントのデータから訓練された画像分類モデルの一般化を可能にする。
この目的のために、当社のFDGであるFEDAは、トレーニング中の2つの最適化アップデートで構成されています。
クライアントにとって、導入された損失は、機能複雑性と条件整合性を減らすことを目的としており、サーバでは、グローバルモデルによって得られたソースとターゲットの間の自由エネルギーバイアスを制限する。
FEDALの残りのコンポーネントは可変予算のALであり、サーバにターゲットとするクライアントの最も情報性の高いローカルデータを検索してサンプリングするよう問い合わせる。
従来のFDGベースラインとFederated Active Learningベースラインとを比較し,FDG w/とw/o ALの複数の実験を行った。
広範な定量的実験により,本手法の精度と効率が,複数の現代手法と比較して優れていることを示した。
FEDALVは、ソースクライアントのデータの5%をサンプリングしながら、完全なトレーニング対象精度の性能を得る。
関連論文リスト
- Feature Diversification and Adaptation for Federated Domain Generalization [27.646565383214227]
実世界のアプリケーションでは、ローカルクライアントは、しばしば制限されたドメイン内で動作し、クライアント間でのドメインシフトにつながる。
フェデレーション(federated feature diversification)の概念を導入し,プライバシを保ちながら,ローカルモデルによるクライアント不変表現の学習を支援する。
我々のグローバルモデルでは、目に見えないテスト領域データに対して堅牢な性能を示す。
論文 参考訳(メタデータ) (2024-07-11T07:45:10Z) - SFedCA: Credit Assignment-Based Active Client Selection Strategy for Spiking Federated Learning [15.256986486372407]
フェデレーション学習のスパイクにより、リソースに制約のあるデバイスは、ローカルデータを交換することなく、低消費電力で協調的にトレーニングできる。
既存のスパイキングフェデレーション学習手法では、クライアントのアグリゲーションに対してランダムな選択アプローチを採用しており、不偏なクライアントの参加を前提としている。
本研究では,グローバルなサンプル分布バランスに寄与するクライアントを鑑定するために,クレジット割当に基づくアクティブクライアント選択戦略であるSFedCAを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:56:22Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Divide and Adapt: Active Domain Adaptation via Customized Learning [56.79144758380419]
対象インスタンスを成層化可能な4つのカテゴリに分割する新しいADAフレームワークであるDiaNA(Divide-and-Adapt)を提案する。
不確実性とドメイン性に基づく新しいデータ分割プロトコルにより、DiaNAは最も有利なサンプルを正確に認識することができる。
の精神のおかげで、DiaNAはドメインギャップの大きなバリエーションでデータを処理できる。
論文 参考訳(メタデータ) (2023-07-21T14:37:17Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - FACT: Federated Adversarial Cross Training [0.0]
Federated Adrial Cross Training (FACT)は、ソースクライアント間の暗黙のドメイン差を利用して、ターゲットドメイン内のドメインシフトを特定する。
我々は、FACTが最先端のフェデレーション、非フェデレーション、およびソースフリードメイン適応モデルより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-06-01T12:25:43Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - FLIS: Clustered Federated Learning via Inference Similarity for Non-IID
Data Distribution [7.924081556869144]
本稿では,クライアント集団をクラスタにグループ化し,共同でトレーニング可能なデータ配信を行う新しいアルゴリズムFLISを提案する。
CIFAR-100/10, SVHN, FMNISTデータセット上の最先端ベンチマークに対するFLISの利点を示す実験結果を示す。
論文 参考訳(メタデータ) (2022-08-20T22:10:48Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。