論文の概要: Generalized Source-free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2108.01614v1
- Date: Tue, 3 Aug 2021 16:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 13:59:01.576112
- Title: Generalized Source-free Domain Adaptation
- Title(参考訳): 一般化されたソースフリードメイン適応
- Authors: Shiqi Yang, Yaxing Wang, Joost van de Weijer, Luis Herranz, Shangling
Jui
- Abstract要約: 我々は、G-SFDA(Generalized Source-free Domain Adaptation)と呼ばれる新しいドメイン適応パラダイムを提案する。
目標性能は既存の DA 法や SFDA 法と同等かそれ以上であり、特に VisDA の最先端性能 (85.4%) を達成する。
- 参考スコア(独自算出の注目度): 47.907168218249694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) aims to transfer the knowledge learned from a source
domain to an unlabeled target domain. Some recent works tackle source-free
domain adaptation (SFDA) where only a source pre-trained model is available for
adaptation to the target domain. However, those methods do not consider keeping
source performance which is of high practical value in real world applications.
In this paper, we propose a new domain adaptation paradigm called Generalized
Source-free Domain Adaptation (G-SFDA), where the learned model needs to
perform well on both the target and source domains, with only access to current
unlabeled target data during adaptation. First, we propose local structure
clustering (LSC), aiming to cluster the target features with its semantically
similar neighbors, which successfully adapts the model to the target domain in
the absence of source data. Second, we propose sparse domain attention (SDA),
it produces a binary domain specific attention to activate different feature
channels for different domains, meanwhile the domain attention will be utilized
to regularize the gradient during adaptation to keep source information. In the
experiments, for target performance our method is on par with or better than
existing DA and SFDA methods, specifically it achieves state-of-the-art
performance (85.4%) on VisDA, and our method works well for all domains after
adapting to single or multiple target domains. Code is available in
https://github.com/Albert0147/G-SFDA.
- Abstract(参考訳): ドメイン適応(da)は、ソースドメインから学んだ知識をラベルなしのターゲットドメインに転送することを目的としている。
最近の研究はソースフリードメイン適応(SFDA)に取り組み、ソース事前学習モデルのみがターゲットドメインへの適応に利用できる。
しかし、これらの手法は実際のアプリケーションにおいて高い実用的価値を持つソース性能を維持することを考慮していない。
本稿では,学習モデルが対象領域と対象領域の両方で良好に動作し,適応中に現在のラベルなしのターゲットデータのみにアクセスする必要がある,一般化されたソースフリードメイン適応 (g-sfda) と呼ばれる新しいドメイン適応パラダイムを提案する。
まず,提案するローカル構造クラスタリング (LSC) は,ソースデータがない場合に,そのモデルが対象領域に適応する,意味的に類似した特徴をクラスタリングすることを目的としている。
第2に、スパースドメインアテンション(SDA)を提案し、異なるドメインの異なる特徴チャネルを活性化するためにバイナリドメイン固有のアテンションを生成し、一方、ドメインアテンションは、ソース情報を保持するために順応中の勾配を調整するために利用される。
実験では,本手法は既存の DA 法や SFDA 法と同等以上の精度で,特に VisDA の最先端性能 (85.4%) を達成でき,本手法は単一ないし複数のターゲットドメインに適応した後,すべてのドメインで有効である。
コードはhttps://github.com/Albert0147/G-SFDAで入手できる。
関連論文リスト
- Style Adaptation for Domain-adaptive Semantic Segmentation [2.1365683052370046]
ドメインの不一致は、ターゲットドメインに適用した場合、ソースドメインデータに基づいてトレーニングされた一般的なネットワークモデルの性能を著しく低下させる。
パラメータ計算を必要とせず、自己学習に基づくUDA手法とシームレスに統合する。
提案手法は,GTA->Cityscapesデータセット上で76.93 mIoUの有意なUDA性能を達成し,過去の成果に比べて+1.03ポイント向上したことを示す。
論文 参考訳(メタデータ) (2024-04-25T02:51:55Z) - AdAM: Few-Shot Image Generation via Adaptation-Aware Kernel Modulation [71.58154388819887]
F SIG(Few-shot Image Generation)は、少数のトレーニングサンプル(例:10)が与えられた新しい多様な画像を生成することを目的としている。
最近の研究は、大規模ソースドメインで事前訓練されたGANを活用し、ターゲットドメインに適応することで、F SIGに対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対してAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2023-07-04T03:56:43Z) - Few-shot Image Generation via Adaptation-Aware Kernel Modulation [33.191479192580275]
F SIG(Few-shot Image Generation)は、ドメインから非常に限られた数のサンプルが与えられた場合に、新しく多様なサンプルを生成することを目的としている。
最近の研究は、大規模なソースドメインデータセットで事前訓練されたGANを活用して、トランスファーラーニングアプローチを使用してこの問題に対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対処するためのAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2022-10-29T10:26:40Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - VDM-DA: Virtual Domain Modeling for Source Data-free Domain Adaptation [26.959377850768423]
ドメイン適応(domain adaptation)は、ラベルリッチドメイン(ソースドメイン)を活用して、ラベルキャリアドメイン(ターゲットドメイン)でのモデル学習を支援する。
ソースドメインのサンプルへのアクセスは、異なる問題のために、現実世界のアプリケーションで常に可能であるとは限らない。
VDM-DA(Virtual Domain Modeling)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-26T09:56:40Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。