論文の概要: Towards Unsupervised Domain Adaptation for Deep Face Recognition under
Privacy Constraints via Federated Learning
- arxiv url: http://arxiv.org/abs/2105.07606v1
- Date: Mon, 17 May 2021 04:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 15:09:54.821941
- Title: Towards Unsupervised Domain Adaptation for Deep Face Recognition under
Privacy Constraints via Federated Learning
- Title(参考訳): フェデレートラーニングによるプライバシー制約下での深層顔認識のための教師なしドメイン適応
- Authors: Weiming Zhuang, Xin Gan, Yonggang Wen, Xuesen Zhang, Shuai Zhang,
Shuai Yi
- Abstract要約: FedFR (Unsupervised Federated Face Recognition approach) を提案する。
fedfrは、フェデレーション学習を通じてソースドメインから知識を反復的に集約することで、ターゲットドメインのパフォーマンスを向上させる。
ドメイン間の生データの代わりにモデルを転送することで、データプライバシーを保護します。
- 参考スコア(独自算出の注目度): 33.33475702665153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation has been widely adopted to generalize models
for unlabeled data in a target domain, given labeled data in a source domain,
whose data distributions differ from the target domain. However, existing works
are inapplicable to face recognition under privacy constraints because they
require sharing sensitive face images between two domains. To address this
problem, we propose a novel unsupervised federated face recognition approach
(FedFR). FedFR improves the performance in the target domain by iteratively
aggregating knowledge from the source domain through federated learning. It
protects data privacy by transferring models instead of raw data between
domains. Besides, we propose a new domain constraint loss (DCL) to regularize
source domain training. DCL suppresses the data volume dominance of the source
domain. We also enhance a hierarchical clustering algorithm to predict pseudo
labels for the unlabeled target domain accurately. To this end, FedFR forms an
end-to-end training pipeline: (1) pre-train in the source domain; (2) predict
pseudo labels by clustering in the target domain; (3) conduct
domain-constrained federated learning across two domains. Extensive experiments
and analysis on two newly constructed benchmarks demonstrate the effectiveness
of FedFR. It outperforms the baseline and classic methods in the target domain
by over 4% on the more realistic benchmark. We believe that FedFR will shed
light on applying federated learning to more computer vision tasks under
privacy constraints.
- Abstract(参考訳): 教師なし領域適応(unsupervised domain adaptation)は、対象領域と異なるデータ分布を持つソース領域のラベル付きデータに対して、対象領域内のラベルなしデータのモデルを一般化するために広く採用されている。
しかし、既存の作品は2つのドメイン間でセンシティブな顔画像を共有する必要があるため、プライバシー上の制約下での顔認識には不適格である。
この問題に対処するために,新しい非教師付きフェデレーション顔認識手法 (FedFR) を提案する。
fedfrは、フェデレーション学習を通じてソースドメインから知識を反復的に集約することで、ターゲットドメインのパフォーマンスを向上させる。
ドメイン間の生データではなく、モデルを転送することで、データのプライバシを保護する。
さらに、ソースドメイントレーニングを正規化するための新しいドメイン制約損失(DCL)を提案する。
DCLは、ソースドメインのデータボリューム支配を抑制する。
また,非ラベル対象領域の擬似ラベルを正確に予測するための階層的クラスタリングアルゴリズムも拡張した。
この目的のために、FedFRは、(1)ソースドメインでの事前トレーニング、(2)ターゲットドメインでのクラスタリングによる擬似ラベル予測、(3)ドメイン制約付きフェデレーション学習を2つのドメインで行う、エンドツーエンドのトレーニングパイプラインを形成する。
2つの新しく構築されたベンチマークに関する大規模な実験と分析は、FedFRの有効性を示している。
より現実的なベンチマークでは、ターゲットドメインのベースラインと古典的なメソッドを4%以上上回っている。
fedfrは、プライバシーの制約下で、より多くのコンピュータビジョンタスクにフェデレーション学習を適用することに光を当てると信じています。
関連論文リスト
- Data-Efficient CLIP-Powered Dual-Branch Networks for Source-Free Unsupervised Domain Adaptation [4.7589762171821715]
Source-free Unsupervised Domain Adaptation (SF-UDA) は、ソースサンプルに直接アクセスすることなく、ラベル付きソースドメインからラベルなしターゲットドメインにモデルのパフォーマンスを転送することを目的としている。
データ効率のよいCLIP方式のデュアルブランチネットワーク(CDBN)を導入し、限られたソースデータとプライバシの問題に対処する。
CDBNは、7つのデータセット上の31の転送タスクにわたる既存のメソッドよりもはるかに少ないソースドメインサンプルで、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-21T09:25:49Z) - Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Domain Adaptive Few-Shot Open-Set Learning [36.39622440120531]
本稿では,DA-FSOS(Domain Adaptive Few-Shot Open Set Recognition)を提案する。
我々のトレーニングアプローチは、DAFOS-NETがターゲットドメインの新しいシナリオにうまく適応できるようにします。
本稿では,Office-Home,mini-ImageNet/CUB,DomainNetデータセットに基づくDA-FSOSの3つのベンチマークを示す。
論文 参考訳(メタデータ) (2023-09-22T12:04:47Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Federated Unsupervised Domain Adaptation for Face Recognition [26.336693850812118]
顔認識のための非教師付きドメイン適応フェデレーションであるFedFRを提案する。
対象領域におけるラベルなしデータに対しては,距離制約付きクラスタリングアルゴリズムを強化し,予測された擬似ラベルの品質を向上させる。
また、フェデレート学習において、ソースドメイントレーニングを正規化するための新しいドメイン制約損失を提案する。
論文 参考訳(メタデータ) (2022-04-09T04:02:03Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。