論文の概要: Multi-Source Domain Adaptation Based on Federated Knowledge Alignment
- arxiv url: http://arxiv.org/abs/2203.11635v1
- Date: Tue, 22 Mar 2022 11:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 21:53:51.337692
- Title: Multi-Source Domain Adaptation Based on Federated Knowledge Alignment
- Title(参考訳): フェデレーション知識アライメントに基づくマルチソースドメイン適応
- Authors: Yuwei Sun, Ng Chong, Ochiai Hideya
- Abstract要約: フェデレートラーニング(FL)は、ユーザのプライバシを保護するために、分散モデル学習を容易にする。
我々は、異なるクライアントと対象タスクの特徴を整合させるフェデレーション知識アライメント(FedKA)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) facilitates distributed model learning to protect
users' privacy. In the absence of labels for a new user's data, the knowledge
transfer in FL allows a learned global model to adapt to the new samples
quickly. The multi-source domain adaptation in FL aims to improve the model's
generality in a target domain by learning domain-invariant features from
different clients. In this paper, we propose Federated Knowledge Alignment
(FedKA) that aligns features from different clients and those of the target
task. We identify two types of negative transfer arising in multi-source domain
adaptation of FL and demonstrate how FedKA can alleviate such negative
transfers with the help of a global features disentangler enhanced by embedding
matching. To further facilitate representation learning of the target task, we
devise a federated voting mechanism to provide labels for samples from the
target domain via a consensus from querying local models and fine-tune the
global model with these labeled samples. Extensive experiments, including an
ablation study, on an image classification task of Digit-Five and a text
sentiment classification task of Amazon Review, show that FedKA could be
augmented to existing FL algorithms to improve the generality of the learned
model for tackling a new task.
- Abstract(参考訳): フェデレーション学習(fl)は、ユーザのプライバシを保護するために、分散モデル学習を促進する。
新たなユーザのデータに対するラベルがない場合、FLにおける知識伝達により、学習したグローバルモデルが新しいサンプルに迅速に適応できる。
FLにおけるマルチソースドメイン適応は、異なるクライアントからドメイン不変の機能を学ぶことによって、ターゲットドメインにおけるモデルの汎用性を改善することを目的としている。
本稿では,異なるクライアントと対象タスクの機能を調整するフェデレーション知識アライメント(federated knowledge alignment, fedka)を提案する。
FLのマルチソース領域適応において生じる2種類の負の移動を同定し、FedKAがグローバルな特徴分散器の助けを借りて、どのようにそのような負の移動を緩和できるかを示す。
さらに,対象課題の表現学習を容易にするために,対象領域からのサンプルのラベルを,ローカルモデルのクエリから合意を得て提供し,これらのラベル付きサンプルでグローバルモデルを微調整するフェデレート投票機構を考案した。
Digit-Fiveの画像分類タスクとAmazon Reviewのテキスト感情分類タスクに関するアブレーション研究を含む大規模な実験は、FedKAが既存のFLアルゴリズムに拡張され、新しいタスクに取り組むための学習モデルの汎用性を改善することができることを示している。
関連論文リスト
- Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - FedDr+: Stabilizing Dot-regression with Global Feature Distillation for Federated Learning [27.782676760198697]
フェデレートラーニング(FL)は、効果的なグローバルモデル開発のための重要なフレームワークとして登場した。
FLの主な課題はクライアントのドリフトであり、データの不均一性は分散した知識の集約を妨げる。
我々は,ドット回帰損失を用いた局所モデルアライメントを実現するFedDr+という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-04T14:34:13Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - FedSoup: Improving Generalization and Personalization in Federated
Learning via Selective Model Interpolation [32.36334319329364]
クロスサイロフェデレーション学習(FL)は、データセンタに分散したデータセット上での機械学習モデルの開発を可能にする。
近年の研究では、現在のFLアルゴリズムは、分布シフトに直面した場合、局所的な性能とグローバルな性能のトレードオフに直面している。
地域とグローバルのパフォーマンスのトレードオフを最適化する新しいフェデレーションモデルスープ手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T00:07:29Z) - Personalized Federated Learning with Local Attention [5.018560254008613]
Federated Learning(FL)は、ローカルデータにアクセスせずに、中央サーバがローカルクライアントでのモデルトレーニングを支援する、単一のグローバルモデルを学ぶことを目的としている。
FLの主な課題は、異種ラベルの分布と特徴シフトであり、学習したモデルの大幅な性能劣化につながる可能性がある。
textbfLocal textbfAttention (pFedLA) を用いたTextbfpersonalized textbfFederated Learningを提案する。
pFedLAでは2つのモジュールが提案されている。
論文 参考訳(メタデータ) (2023-04-02T20:10:32Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。