論文の概要: Domain-Agnostic Mutual Prompting for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2403.02899v1
- Date: Tue, 5 Mar 2024 12:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:11:38.518011
- Title: Domain-Agnostic Mutual Prompting for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のためのドメイン非依存相互プロンプト
- Authors: Zhekai Du, Xinyao Li, Fengling Li, Ke Lu, Lei Zhu, Jingjing Li
- Abstract要約: 従来のUnsupervised Domain Adaptation (UDA)は、ドメイン間の分散の差を最小限にしようと努力している。
ドメイン非依存型Multual Prompting (DAMP) を提案する。
3つのUDAベンチマークの実験は、最先端のアプローチよりもDAMPの方が優れていることを示した。
- 参考スコア(独自算出の注目度): 27.695825570272874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional Unsupervised Domain Adaptation (UDA) strives to minimize
distribution discrepancy between domains, which neglects to harness rich
semantics from data and struggles to handle complex domain shifts. A promising
technique is to leverage the knowledge of large-scale pre-trained
vision-language models for more guided adaptation. Despite some endeavors,
current methods often learn textual prompts to embed domain semantics for
source and target domains separately and perform classification within each
domain, limiting cross-domain knowledge transfer. Moreover, prompting only the
language branch lacks flexibility to adapt both modalities dynamically. To
bridge this gap, we propose Domain-Agnostic Mutual Prompting (DAMP) to exploit
domain-invariant semantics by mutually aligning visual and textual embeddings.
Specifically, the image contextual information is utilized to prompt the
language branch in a domain-agnostic and instance-conditioned way. Meanwhile,
visual prompts are imposed based on the domain-agnostic textual prompt to
elicit domain-invariant visual embeddings. These two branches of prompts are
learned mutually with a cross-attention module and regularized with a
semantic-consistency loss and an instance-discrimination contrastive loss.
Experiments on three UDA benchmarks demonstrate the superiority of DAMP over
state-of-the-art approaches.
- Abstract(参考訳): 従来のunsupervised domain adaptation(uda)は、データからの豊富なセマンティクスの活用を怠り、複雑なドメインシフトの処理に苦労するドメイン間の分散の不一致を最小限に抑えることを目指している。
有望な技術は、よりガイド付き適応のために、大規模で事前訓練された視覚言語モデルの知識を活用することである。
幾らかの努力にもかかわらず、現在の手法は、ソースとターゲットドメインのドメインセマンティクスを別々に埋め込むためのテキスト的プロンプトを学び、各ドメイン内の分類を行い、ドメイン間の知識の転送を制限する。
さらに、言語ブランチのみをプロンプトすることは、両方のモダリティを動的に適用する柔軟性に欠ける。
このギャップを埋めるために、視覚とテキストの埋め込みを相互に整合させることにより、ドメイン不変セマンティクスを活用するドメイン非依存型相互プロンプト(DAMP)を提案する。
具体的には、画像コンテキスト情報を用いて、ドメインに依存しないインスタンス条件の方法で言語分岐を誘導する。
一方、視覚的プロンプトはドメインに依存しないテキストのプロンプトに基づいて課される。
これら2つのプロンプトはクロスアテンションモジュールと相互に学習され、セマンティクス・コンシステンシー損失とインスタンス識別コントラスト損失で正規化される。
3つのUDAベンチマークの実験は、最先端アプローチよりもDAMPの方が優れていることを示した。
関連論文リスト
- Prompt Ensemble Self-training for Open-Vocabulary Domain Adaptation [45.02052030837188]
我々は、新しい教師なしドメイン適応フレームワークであるオープン語彙ドメイン適応(OVDA)について研究する。
視覚と言語間の相乗効果を利用したPEST(Prompt Ensemble Self-Trening)技術の設計を行う。
PESTは、10の画像認識タスクで最先端のタスクを一貫して上回る。
論文 参考訳(メタデータ) (2023-06-29T03:39:35Z) - Learning Domain-Aware Detection Head with Prompt Tuning [27.597165816077826]
ドメイン適応オブジェクト検出(DAOD)は、注釈付きソースドメインで訓練された検出器を、未ラベルのターゲットドメインに一般化することを目的としている。
本稿では,各領域に対して動的検出ヘッドを生成するために,学習可能なドメイン適応プロンプトを適用したドメイン認識検出ヘッド(DA-Pro)を提案する。
論文 参考訳(メタデータ) (2023-06-09T07:30:10Z) - PiPa: Pixel- and Patch-wise Self-supervised Learning for Domain
Adaptative Semantic Segmentation [100.6343963798169]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、学習モデルの他のドメインへの一般化を強化することを目的としている。
そこで我々は,ドメイン適応型セマンティックセマンティックセグメンテーションのための,PiPaという,画素・パッチ対応の自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-14T18:31:24Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Self-Adversarial Disentangling for Specific Domain Adaptation [52.1935168534351]
ドメイン適応は、ソースとターゲットドメイン間のドメインシフトをブリッジすることを目的としています。
最近の手法では、特定の次元について明示的な事前知識を考慮しないのが一般的である。
論文 参考訳(メタデータ) (2021-08-08T02:36:45Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Unsupervised Cross-domain Image Classification by Distance Metric Guided
Feature Alignment [11.74643883335152]
教師なしドメイン適応は、ソースドメインからターゲットドメインに知識を転送する有望な道である。
本稿では,距離メトリックガイド機能アライメント(MetFA)を提案する。
我々のモデルは、クラス分布アライメントを統合して、ソースドメインからターゲットドメインにセマンティック知識を転送します。
論文 参考訳(メタデータ) (2020-08-19T13:36:57Z) - Contextual-Relation Consistent Domain Adaptation for Semantic
Segmentation [44.19436340246248]
本稿では,革新的局所文脈相関整合ドメイン適応手法を提案する。
グローバルレベルのアライメントにおいて、地域レベルのコンピテンシーを達成することを目的としている。
実験では, 最先端手法と比較して, セグメンテーション性能が優れていることを示した。
論文 参考訳(メタデータ) (2020-07-05T19:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。