論文の概要: Open-Set Domain Adaptation with Visual-Language Foundation Models
- arxiv url: http://arxiv.org/abs/2307.16204v1
- Date: Sun, 30 Jul 2023 11:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 17:09:09.325638
- Title: Open-Set Domain Adaptation with Visual-Language Foundation Models
- Title(参考訳): Visual-Language Foundation Modelを用いたオープンセットドメイン適応
- Authors: Qing Yu and Go Irie and Kiyoharu Aizawa
- Abstract要約: 非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
- 参考スコア(独自算出の注目度): 51.49854335102149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) has proven to be very effective in
transferring knowledge obtained from a source domain with labeled data to a
target domain with unlabeled data. Owing to the lack of labeled data in the
target domain and the possible presence of unknown classes, open-set domain
adaptation (ODA) has emerged as a potential solution to identify these classes
during the training phase. Although existing ODA approaches aim to solve the
distribution shifts between the source and target domains, most methods
fine-tuned ImageNet pre-trained models on the source domain with the adaptation
on the target domain. Recent visual-language foundation models (VLFM), such as
Contrastive Language-Image Pre-Training (CLIP), are robust to many distribution
shifts and, therefore, should substantially improve the performance of ODA. In
this work, we explore generic ways to adopt CLIP, a popular VLFM, for ODA. We
investigate the performance of zero-shot prediction using CLIP, and then
propose an entropy optimization strategy to assist the ODA models with the
outputs of CLIP. The proposed approach achieves state-of-the-art results on
various benchmarks, demonstrating its effectiveness in addressing the ODA
problem.
- Abstract(参考訳): 非教師付きドメイン適応(UDA)は、ラベル付きデータを持つソースドメインからラベル付きデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
対象ドメインにラベル付きデータがないことと未知のクラスが存在する可能性があるため、オープンセットドメイン適応(ODA)はトレーニングフェーズ中にこれらのクラスを識別する潜在的な解決策として浮上している。
既存のODAアプローチは、ソースドメインとターゲットドメイン間の分散シフトを解決することを目的としているが、ほとんどのメソッドは、ターゲットドメインへの適応を伴うソースドメイン上のImageNet事前トレーニングモデルを微調整する。
CLIP(Contrastive Language- Image Pre-Training)のような近年の視覚言語基礎モデル(VLFM)は,多くの分散シフトに対して堅牢であるため,ODAの性能を大幅に向上させる必要がある。
本稿では,Odaに人気のあるVLFMであるCLIPを採用する一般的な方法について検討する。
CLIPを用いたゼロショット予測の性能について検討し,CLIPの出力でODAモデルを支援するエントロピー最適化戦略を提案する。
提案手法は,ODA問題に対処する上での有効性を実証し,様々なベンチマークの最先端結果を実現する。
関連論文リスト
- Style Adaptation for Domain-adaptive Semantic Segmentation [2.1365683052370046]
ドメインの不一致は、ターゲットドメインに適用した場合、ソースドメインデータに基づいてトレーニングされた一般的なネットワークモデルの性能を著しく低下させる。
パラメータ計算を必要とせず、自己学習に基づくUDA手法とシームレスに統合する。
提案手法は,GTA->Cityscapesデータセット上で76.93 mIoUの有意なUDA性能を達成し,過去の成果に比べて+1.03ポイント向上したことを示す。
論文 参考訳(メタデータ) (2024-04-25T02:51:55Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Source-Free Domain Adaptation for Semantic Segmentation [11.722728148523366]
Unsupervised Domain Adaptation(UDA)は、セマンティックセグメンテーションのための畳み込みニューラルネットワークベースのアプローチがピクセルレベルの注釈付きデータに大きく依存するという課題に取り組むことができる。
そこで本稿では,十分に訓練されたソースモデルとラベルなしのターゲットドメインデータセットのみを適用可能な,意味セグメンテーションのためのソースフリーなドメイン適応フレームワークsfdaを提案する。
論文 参考訳(メタデータ) (2021-03-30T14:14:29Z) - Towards Inheritable Models for Open-Set Domain Adaptation [56.930641754944915]
本稿では、将来、ソースデータセットが存在しない場合の適応を容易にするために、ソース学習モデルを用いた実用的なドメイン適応パラダイムを提案する。
本稿では,ソースデータがない場合でも,対象領域に対して最適なソースモデルの選択を可能にするために,継承可能性の定量化を目的とする手法を提案する。
論文 参考訳(メタデータ) (2020-04-09T07:16:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。