論文の概要: PromptTA: Prompt-driven Text Adapter for Source-free Domain Generalization
- arxiv url: http://arxiv.org/abs/2409.14163v1
- Date: Sat, 21 Sep 2024 15:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 03:22:11.959694
- Title: PromptTA: Prompt-driven Text Adapter for Source-free Domain Generalization
- Title(参考訳): PromptTA: ソースフリードメイン一般化のためのプロンプト駆動型テキストアダプタ
- Authors: Haoran Zhang, Shuanghao Bai, Wanqi Zhou, Jingwen Fu, Badong Chen,
- Abstract要約: ソースフリードメイン一般化(SFDG)は、ソースドメインデータにアクセスせずにターゲットドメインにモデルを適用するという課題に取り組む。
SFDGの最近の進歩は、主にCLIPのような視覚言語モデルのテキストモダリティの活用に焦点を当てている。
Prompt-Driven Text Adapter (PromptTA) 手法を提案する。この手法は,スタイル特徴の分布をより正確に把握し,ドメイン知識の網羅性を確保するために再サンプリングを利用する。
- 参考スコア(独自算出の注目度): 26.573088214233955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source-free domain generalization (SFDG) tackles the challenge of adapting models to unseen target domains without access to source domain data. To deal with this challenging task, recent advances in SFDG have primarily focused on leveraging the text modality of vision-language models such as CLIP. These methods involve developing a transferable linear classifier based on diverse style features extracted from the text and learned prompts or deriving domain-unified text representations from domain banks. However, both style features and domain banks have limitations in capturing comprehensive domain knowledge. In this work, we propose Prompt-Driven Text Adapter (PromptTA) method, which is designed to better capture the distribution of style features and employ resampling to ensure thorough coverage of domain knowledge. To further leverage this rich domain information, we introduce a text adapter that learns from these style features for efficient domain information storage. Extensive experiments conducted on four benchmark datasets demonstrate that PromptTA achieves state-of-the-art performance. The code is available at https://github.com/zhanghr2001/PromptTA.
- Abstract(参考訳): ソースフリードメイン一般化(SFDG)は、ソースドメインデータにアクセスせずにターゲットドメインにモデルを適用するという課題に取り組む。
この課題に対処するため、SFDGの最近の進歩は、CLIPのような視覚言語モデルのテキストモダリティの活用に重点を置いている。
これらの方法は、テキストから抽出された多様なスタイルの特徴に基づいて、転送可能な線形分類器を開発し、ドメインバンクからドメイン統一されたテキスト表現を学習または導出することを含む。
しかし、スタイル機能とドメインバンクの両方が、包括的なドメイン知識の取得に制限があります。
本稿では,スタイル特徴の分布をよりよく把握し,ドメイン知識の網羅的カバレッジを確保するために再サンプリングを利用するPrompt-Driven Text Adapter(PromptTA)手法を提案する。
このリッチなドメイン情報をさらに活用するために、これらのスタイル機能から学習したテキストアダプタを導入し、ドメイン情報記憶を効率化する。
4つのベンチマークデータセットで実施された大規模な実験は、PromptTAが最先端のパフォーマンスを達成したことを示している。
コードはhttps://github.com/zhanghr2001/PromptTAで公開されている。
関連論文リスト
- A Unified Data Augmentation Framework for Low-Resource Multi-Domain Dialogue Generation [52.0964459842176]
現在の最先端の対話システムは、広範なトレーニングデータセットに大きく依存している。
我々はtextbfAMD$2$G と呼ばれる textbfMulti-textbfDomain textbfDialogue textbfGeneration のための新しいデータ textbfAugmentation フレームワークを提案する。
AMD$2$Gフレームワークは、データ拡張プロセスと、ドメインに依存しないトレーニングとドメイン適応トレーニングという2段階のトレーニングアプローチで構成されている。
論文 参考訳(メタデータ) (2024-06-14T09:52:27Z) - CFPL-FAS: Class Free Prompt Learning for Generalizable Face Anti-spoofing [66.6712018832575]
ドメイン一般化 (DG) ベースの Face Anti-Spoofing (FAS) は、目に見えないドメインにおけるモデルの性能を改善することを目的としている。
私たちはCLIPのような大規模VLMを利用し、テキスト機能を利用して分類器の重みを動的に調整し、一般化可能な視覚的特徴を探索する。
論文 参考訳(メタデータ) (2024-03-21T11:58:50Z) - Tell, Don't Show!: Language Guidance Eases Transfer Across Domains in Images and Videos [69.29778009769862]
ラベル付きソースから未ラベルのターゲットデータへの識別的知識の堅牢な転送をドメインギャップでガイドするフレームワークであるLaGTranを紹介する。
意味的にリッチなテキストモダリティがより好ましい転送特性を持つという我々の観察に触発された我々は、ソース学習されたテキスト分類器を用いて、ターゲットテキスト記述の予測を生成するための転送機構を考案した。
言語指導による私たちのアプローチは驚くほど簡単でシンプルですが、GeoNetやDomainNetといった挑戦的なデータセットに対する以前のアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2024-03-08T18:58:46Z) - Phrase Grounding-based Style Transfer for Single-Domain Generalized
Object Detection [109.58348694132091]
単一ドメインの一般化オブジェクト検出は、複数の未確認対象ドメインに対するモデルの一般化性を高めることを目的としている。
これは、ターゲットのドメインデータをトレーニングに組み込むことなく、ドメインシフトに対処するモデルを必要とするため、実用的だが難しいタスクである。
そこで我々は,課題に対する新しい文節接頭辞に基づくスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T10:48:43Z) - DPOD: Domain-Specific Prompt Tuning for Multimodal Fake News Detection [15.599951180606947]
文脈外画像を用いたフェイクニュースが広まり、情報過負荷の時代における問題となっている。
ドメイン外データが、所望のドメインのコンテキスト外誤情報検出を改善するのに役立つかどうかを検討する。
DPOD (Domain-specific Prompt-tuning using Out-of-Domain data) と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-27T08:49:26Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - TDG: Text-guided Domain Generalization [10.322052096998728]
我々は、テキスト誘導ドメイン一般化(TDG)パラダイムをドメイン一般化のために開発する。
まず、新しいドメイン関連単語で現在のドメインの記述を拡張するために、自動単語生成手法を考案する。
そして,提案手法により生成したドメイン情報をテキスト特徴空間に埋め込む。
最後に、入力画像特徴と生成されたテキスト特徴の両方を利用して、未確認のターゲットドメインをうまく一般化する特別な設計の分類器を訓練する。
論文 参考訳(メタデータ) (2023-08-19T07:21:02Z) - Learning Domain Invariant Prompt for Vision-Language Models [31.581652862478965]
本稿では,メタプロンプト(MetaPrompt)と呼ばれる未確認領域に一般化可能な,固有領域不変プロンプトを直接生成する新しいプロンプト学習パラダイムを提案する。
我々の手法は既存の手法より一貫して大幅に優れています。
論文 参考訳(メタデータ) (2022-12-08T11:23:24Z) - P{\O}DA: Prompt-driven Zero-shot Domain Adaptation [27.524962843495366]
我々は,対象領域の自然言語,すなわちプロンプトの一般的な記述のみを用いて,ソースドメイン上で訓練されたモデルを適用する。
本稿では,これらのプロンプト駆動による拡張が,セマンティックセグメンテーションのためのゼロショットドメイン適応の実行に有効であることを示す。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。