論文の概要: Transformer-Based Source-Free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2105.14138v1
- Date: Fri, 28 May 2021 23:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:47:02.381862
- Title: Transformer-Based Source-Free Domain Adaptation
- Title(参考訳): Transformer-based Source-free Domain Adaptation
- Authors: Guanglei Yang, Hao Tang, Zhun Zhong, Mingli Ding, Ling Shao, Nicu
Sebe, Elisa Ricci
- Abstract要約: 本研究では,ソースフリードメイン適応(SFDA)の課題について検討する。
我々は、FDAの一般化モデルを学ぶためのTransformer(TransDA)という、汎用的で効果的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 134.67078085569017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the task of source-free domain adaptation (SFDA),
where the source data are not available during target adaptation. Previous
works on SFDA mainly focus on aligning the cross-domain distributions. However,
they ignore the generalization ability of the pretrained source model, which
largely influences the initial target outputs that are vital to the target
adaptation stage. To address this, we make the interesting observation that the
model accuracy is highly correlated with whether or not attention is focused on
the objects in an image. To this end, we propose a generic and effective
framework based on Transformer, named TransDA, for learning a generalized model
for SFDA. Specifically, we apply the Transformer as the attention module and
inject it into a convolutional network. By doing so, the model is encouraged to
turn attention towards the object regions, which can effectively improve the
model's generalization ability on the target domains. Moreover, a novel
self-supervised knowledge distillation approach is proposed to adapt the
Transformer with target pseudo-labels, thus further encouraging the network to
focus on the object regions. Experiments on three domain adaptation tasks,
including closed-set, partial-set, and open-set adaption, demonstrate that
TransDA can greatly improve the adaptation accuracy and produce
state-of-the-art results. The source code and trained models are available at
https://github.com/ygjwd12345/TransDA.
- Abstract(参考訳): 本稿では,ソースフリードメイン適応(sfda,source-free domain adaptation)の課題について検討する。
SFDAの以前の研究は、主にクロスドメイン分布の整合性に焦点を当てていた。
しかし、彼らは事前学習されたソースモデルの一般化能力を無視し、ターゲット適応段階に不可欠な最初のターゲット出力に大きく影響する。
そこで本研究では,画像中の物体に注意が集中しているか否かに,モデル精度が高い相関関係があることを考察する。
そこで本研究では,FDA の汎用モデルを学ぶための Transformer に基づく汎用的で効果的なフレームワーク TransDA を提案する。
具体的には、Transformerをアテンションモジュールとして適用し、畳み込みネットワークに注入する。
これにより、モデルが対象領域に注意を向けることが奨励され、対象領域におけるモデルの一般化能力が効果的に向上する。
さらに, 自己教師付き知識蒸留法を提案することで, トランスフォーマーを標的擬似ラベルに適応させることにより, ネットワークが対象領域に集中するよう促す。
クローズドセット、部分セット、オープンセット適応を含む3つの領域適応タスクの実験は、TransDAが適応精度を大幅に改善し、最先端の結果が得られることを示した。
ソースコードとトレーニングされたモデルはhttps://github.com/ygjwd12345/transdaで入手できる。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Continual Source-Free Unsupervised Domain Adaptation [37.060694803551534]
既存のソースフリーのUnsupervised Domain Adaptationアプローチは破滅的な忘れを見せる。
本稿では,SuDAの継続的な学習環境における課題に対応するための連続的なSUDA(C-SUDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T20:11:05Z) - RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation [80.03883315743715]
ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
論文 参考訳(メタデータ) (2022-08-22T18:18:47Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。