論文の概要: COSMo: CLIP Talks on Open-Set Multi-Target Domain Adaptation
- arxiv url: http://arxiv.org/abs/2409.00397v2
- Date: Mon, 16 Dec 2024 17:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:22.773449
- Title: COSMo: CLIP Talks on Open-Set Multi-Target Domain Adaptation
- Title(参考訳): COSMo: CLIP Talks on Open-Set Multi-Target Domain Adaptation
- Authors: Munish Monga, Sachin Kumar Giroh, Ankit Jha, Mainak Singha, Biplab Banerjee, Jocelyn Chanussot,
- Abstract要約: マルチターゲットドメイン適応は、単一のソースドメインからドメイン不変情報を学習し、ラベルのない複数のターゲットドメインに適用する。
本稿では、ドメインに依存しないプロンプトをソースドメイン誘導型プロンプト学習を通じて学習する新しい手法であるCOSMoを紹介する。
我々の知る限りでは、COSMoはOpen-Set Multi-Target DAに対処する最初の方法である。
- 参考スコア(独自算出の注目度): 24.46473228191582
- License:
- Abstract: Multi-Target Domain Adaptation (MTDA) entails learning domain-invariant information from a single source domain and applying it to multiple unlabeled target domains. Yet, existing MTDA methods predominantly focus on addressing domain shifts within visual features, often overlooking semantic features and struggling to handle unknown classes, resulting in what is known as Open-Set (OS) MTDA. While large-scale vision-language foundation models like CLIP show promise, their potential for MTDA remains largely unexplored. This paper introduces COSMo, a novel method that learns domain-agnostic prompts through source domain-guided prompt learning to tackle the MTDA problem in the prompt space. By leveraging a domain-specific bias network and separate prompts for known and unknown classes, COSMo effectively adapts across domain and class shifts. To the best of our knowledge, COSMo is the first method to address Open-Set Multi-Target DA (OSMTDA), offering a more realistic representation of real-world scenarios and addressing the challenges of both open-set and multi-target DA. COSMo demonstrates an average improvement of $5.1\%$ across three challenging datasets: Mini-DomainNet, Office-31, and Office-Home, compared to other related DA methods adapted to operate within the OSMTDA setting. Code is available at: https://github.com/munish30monga/COSMo
- Abstract(参考訳): Multi-Target Domain Adaptation (MTDA)は、単一のソースドメインから学習したドメイン不変情報を複数のラベルのないターゲットドメインに適用する。
しかし、既存のMTDAメソッドは主に視覚機能内のドメインシフトに対処することに焦点を当てており、しばしば意味的特徴を見落とし、未知のクラスを扱うのに苦労し、結果としてOpen-Set (OS) MTDAと呼ばれるものとなる。
CLIPのような大規模ビジョン言語基盤モデルは有望だが、MTDAの可能性はいまだに明らかにされていない。
本稿では、ソースドメイン誘導型プロンプト学習を通じてドメインに依存しないプロンプトを学習し、プロンプト空間におけるMTDA問題に取り組む新しい方法であるCOSMoを紹介する。
ドメイン固有のバイアスネットワークを活用し、既知のクラスと未知のクラスのプロンプトを分離することにより、COSMoはドメインとクラスシフトに効果的に適応する。
我々の知る限り、COSMoはOpen-Set Multi-Target DA(OSMTDA)に対処する最初の方法であり、現実世界のシナリオをよりリアルに表現し、オープンセットとマルチターゲットDAの両方の課題に対処する。
COSMoは、Mini-DomainNet、Office-31、Office-Homeの3つの挑戦的なデータセットに対して平均5.1\%の平均的な改善を示している。
コードは、https://github.com/munish30monga/COSMoで入手できる。
関連論文リスト
- More is Better: Deep Domain Adaptation with Multiple Sources [34.26271755493111]
マルチソースドメイン適応(MDA)は、ラベル付きデータを異なる分布を持つ複数のソースから収集できる、強力で実用的な拡張である。
本調査では,まず様々なMDA戦略を定義し,その後,異なる視点から,深層学習時代の現代MDA手法を体系的に要約し,比較する。
論文 参考訳(メタデータ) (2024-05-01T03:37:12Z) - Multi-Modal Cross-Domain Alignment Network for Video Moment Retrieval [55.122020263319634]
ビデオモーメント検索(VMR)は、与えられた言語クエリに従って、未編集のビデオからターゲットモーメントをローカライズすることを目的としている。
本稿では、新しいタスクであるクロスドメインVMRに焦点を当て、完全なアノテーション付きデータセットをひとつのドメインで利用できるが、関心のあるドメインは、注釈なしのデータセットのみを含む。
本稿では、アノテーションの知識をソースドメインからターゲットドメインに転送するマルチモーダル・クロスドメインアライメント・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-23T12:58:20Z) - Multi-Head Distillation for Continual Unsupervised Domain Adaptation in
Semantic Segmentation [38.10483890861357]
この研究は、連続的 UDA である UDA を学習するための新しいフレームワークに焦点を当てている。
連続学習タスクに固有の破滅的忘れ問題の解法であるマルチヘッド蒸留法(Multi-Head Distillation)を提案する。
論文 参考訳(メタデータ) (2022-04-25T14:03:09Z) - Discover, Hallucinate, and Adapt: Open Compound Domain Adaptation for
Semantic Segmentation [91.30558794056056]
意味的セグメンテーションのための教師なしドメイン適応(UDA)が近年注目を集めている。
我々は,発見,幻覚,適応の3つの主要な設計原則に基づく新しいフレームワークを提案する。
我々は、標準ベンチマークGTAからC自動運転へのソリューションの評価を行い、新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2021-10-08T13:20:09Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Unsupervised Multi-Target Domain Adaptation Through Knowledge
Distillation [14.088776449829345]
非教師なし領域適応(UDA)は、ラベルなしデータの分布間のドメインシフトの問題を軽減する。
本稿では,複数の対象領域にまたがる一般化が可能なCNNを訓練するための,教師なしMTDA手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T14:59:45Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。